După luni de zvonuri și speculații, OpenAI a anunțat GPT-4: cel mai recent din linia sa de modele de limbaj AI care alimentează aplicații precum ChatGPT și noul Bing.
Compania susține că modelul este „mai creativ și colaborativ decât oricând” și „poate rezolva probleme dificile cu o mai mare acuratețe”. Poate analiza atât text, cât și imagine, deși poate răspunde doar prin text. OpenAI avertizează, de asemenea, că sistemele păstrează multe dintre aceleași probleme ca modelele lingvistice anterioare, inclusiv tendința de a inventa informații (sau „halucinare”) și capacitatea de a genera text violent și dăunător.
OpenAI spune că are deja un parteneriat cu o serie de companii pentru a integra GPT-4 în produsele lor, inclusiv Duolingo, Stripe și Khan Academy. Noul model este disponibil publicului larg prin ChatGPT Plus, abonamentul ChatGPT lunar de 20 USD al OpenAI și alimentează chatbot-ul Bing de la Microsoft. Acesta va fi, de asemenea, accesibil ca API pe care dezvoltatorii pot construi. (Există o listă de așteptare aici, despre care OpenAI spune că va începe să admită utilizatori în etape.)
Într-o postare pe blogul de cercetare, OpenAI a spus că distincția dintre GPT-4 și predecesorul său GPT-3.5 este „subtilă” în conversația obișnuită (GPT-3.5 este modelul care alimentează ChatGPT). CEO-ul OpenAI, Sam Altman, a scris pe Twitter că GPT-4 „este încă defectuos, încă limitat”, dar că „pare încă mai impresionant la prima utilizare decât înainte după ce petreci mai mult timp cu el”.
Compania spune că îmbunătățirile GPT-4 sunt evidente în performanța sistemului la o serie de teste și criterii de referință, inclusiv examenele Uniform Bar Exam, LSAT, SAT Math și examenele SAT de citire și scriere bazate pe dovezi. În examenele menționate, GPT-4 a obținut scoruri în procente de 88 și mai sus, iar o listă completă a examenelor și a scorurilor sistemului poate fi văzută aici.
Speculațiile despre GPT-4 și capacitățile sale au fost răspândite în ultimul an, mulți sugerând că ar fi un salt uriaș față de sistemele anterioare. Cu toate acestea, judecând după anunțul OpenAI, îmbunătățirea este mai iterativă, așa cum a avertizat anterior compania.
Lucrarea de cercetare originală care descrie GPT a fost publicată în 2018, cu GPT-2 anunțat în 2019 și GPT-3 în 2020. Aceste modele sunt antrenate pe seturi de date uriașe de text, o mare parte din acestea extrase de pe internet, care sunt extrase pentru modele statistice. Aceste modele sunt apoi folosite pentru a prezice ce cuvânt urmează altuia. Este un mecanism relativ simplu de descris, dar rezultatul final sunt sisteme flexibile care pot genera, rezuma și reformula scrierea, precum și efectua alte sarcini bazate pe text, cum ar fi traducerea sau generarea de cod.
OpenAI a întârziat inițial lansarea modelelor sale GPT de teamă că acestea vor fi utilizate în scopuri rău intenționate, cum ar fi generarea de spam și dezinformare. Dar la sfârșitul anului 2022, compania a lansat ChatGPT — un chatbot conversațional bazat pe GPT-3.5 pe care oricine îl putea accesa. Lansarea ChatGPT a declanșat o frenezie în lumea tehnologiei, Microsoft urmând-o în curând cu propriul său chatbot AI Bing (parte a motorului de căutare Bing) și Google încercând să ajungă din urmă.
După cum s-a prezis, disponibilitatea mai largă a acestor modele de limbaj AI a creat probleme și provocări. Sistemul de învățământ încă se adaptează la existența unui software care scrie eseuri respectabile pentru colegiu; site-urile online precum Stack Overflow și revista științifico-fantastică Clarkesworld au fost nevoite să închidă trimiterile din cauza unui aflux de conținut generat de AI; iar utilizările timpurii ale instrumentelor de scriere AI în jurnalism au fost, în cel mai bun caz, dificile. Dar, unii experți au susținut că efectele nocive au fost încă mai puțin decât se anticipase.
În anunțul său privind GPT-4, OpenAI a subliniat că sistemul a trecut prin șase luni de instruire în materie de siguranță și că, în testele interne, a fost cu„82% mai puțin probabil să răspundă la solicitările de conținut nepermis și cu 40% mai multe șanse să producă răspunsuri factuale decât GPT-3.5.”
Cu toate acestea, asta nu înseamnă că sistemul nu face greșeli sau nu scoate conținut dăunător. De exemplu, Microsoft a dezvăluit că chatbot-ul său Bing a fost alimentat de GPT-4 tot timpul, iar mulți utilizatori au reușit să eludeze limitele lui Bing în tot felul de moduri creative, făcând botul să ofere sfaturi periculoase, să amenințe utilizatorii și să inventeze informații. De asemenea, GPT-4 încă nu are cunoștințe despre evenimentele „care au avut loc după ce marea majoritate a datelor i-au fost întrerupte” în septembrie 2021.