OpenAI a creat o scară internă pentru a urmări progresul modelelor sale mari de limbaj spre inteligența generală artificială (AGI), sau AI cu inteligență asemănătoare cu cea umană, a declarat un purtător de cuvânt pentru Bloomberg.
Astăzi, chatbot-urile, precum ChatGPT, se află la Nivelul 1. OpenAI susține că se apropie de Nivelul 2, definit ca un sistem capabil să rezolve probleme de bază la nivelul unei persoane cu un doctorat. Nivelul 3 se referă la agenți AI capabili să acționeze în numele unui utilizator. Nivelul 4 implică AI care poate crea noi inovații. Nivelul 5, ultimul pas pentru a atinge AGI, reprezintă AI capabil să realizeze munca întregilor organizații de oameni. OpenAI a definit anterior AGI ca „un sistem extrem de autonom care depășește oamenii în majoritatea sarcinilor valoroase din punct de vedere economic”.
Structura unică a OpenAI este centrată pe misiunea sa de a atinge AGI, iar modul în care OpenAI definește AGI este important.
Compania a declarat că „dacă un proiect aliniat valoric și conștient de siguranță se apropie de realizarea AGI” înaintea OpenAI, aceasta se angajează să nu concureze cu acel proiect și să ofere tot sprijinul necesar.
Formularea acestei idei în carta OpenAI este vagă, lăsând loc pentru judecata entității cu scop lucrativ (guvernată de organizația non-profit), dar o scară pe care OpenAI poate să se testeze pe sine și pe competitori ar putea ajuta la stabilirea mai clară a momentului când se atinge AGI.
Totuși, AGI este încă departe: va necesita miliarde și miliarde de dolari în putere de calcul pentru a fi atinsă, dacă va fi vreodată realizată. Previziunile experților, și chiar din cadrul OpenAI, variază foarte mult. În octombrie 2023, CEO-ul OpenAI, Sam Altman, a declarat că suntem „la cinci ani, plus sau minus”, de a atinge AGI.
Această nouă scară de evaluare, deși încă în dezvoltare, a fost introdusă la o zi după ce OpenAI și-a anunțat colaborarea cu Los Alamos National Laboratory, care vizează explorarea modului în care modele avansate de AI, precum GPT-4o, pot asista în siguranță în cercetarea bioștiințifică.
Un manager de program de la Los Alamos, responsabil pentru portofoliul de biologie de securitate națională și instrumental în asigurarea parteneriatului cu OpenAI, a declarat pentru The Verge că scopul este de a testa capabilitățile GPT-4o și de a stabili un set de factori de siguranță și alții pentru guvernul SUA. Eventual, modelele publice sau private pot fi testate în raport cu acești factori pentru a-și evalua propriile modele.
În mai, OpenAI și-a dizolvat echipa de siguranță după ce liderul grupului, co-fondatorul OpenAI, Ilya Sutskever, a părăsit compania. Jan Leike, un cercetător-cheie la OpenAI, a demisionat la scurt timp, afirmând într-o postare că „cultura și procesele de siguranță au trecut pe plan secund față de produsele strălucitoare” la companie. Deși OpenAI a negat acest lucru, unii sunt preocupați de ceea ce înseamnă acest lucru dacă compania ajunge efectiv la AGI.
OpenAI nu a furnizat detalii despre cum atribuie modelelor aceste niveluri interne (și a refuzat cererea de comentariu a celor de la The Verge). Totuși, liderii companiei au demonstrat un proiect de cercetare folosind modelul AI GPT-4 în timpul unei întâlniri generale joi și cred că acest proiect arată abilități noi care demonstrează raționament asemănător celui uman, conform Bloomberg.
Această scară ar putea ajuta la furnizarea unei definiții stricte a progresului, mai degrabă decât să fie lăsată la interpretare. De exemplu, CTO-ul OpenAI, Mira Murati, a declarat într-un interviu în iunie că modelele din laboratoarele sale nu sunt mult mai bune decât cele disponibile publicului. Între timp, CEO-ul Sam Altman a spus la sfârșitul anului trecut că compania a „împins vălul ignoranței înapoi”, sugerând că modelele sunt remarcabil de mai inteligente.