Elon Musk, împreună cu un număr de directori de tehnologie și experți în AI, informatică și alte discipline, într-o scrisoare deschisă publicată marți, a cerut laboratoarelor de inteligență artificială de top să întrerupă dezvoltarea sistemelor AI mai avansate decât GPT-4, invocând „riscuri profunde” către societatea umană.
Scrisoarea deschisă, emisă de institutul nonprofit Future of Life, numără peste 1.000 de semnatari, inclusiv Musk, co-fondatorul Apple Steve Wozniak, CEO-ul Stability AI, Emad Mostaque și autorul Sapiens Yuval, Noah Harari. Scrisoarea solicită oprirea imediată a instruirii sistemelor timp de cel puțin șase luni, care trebuie să fie publice, verificabile și să includă toți actorii publici.
„Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de inteligență artificială de top”, se spune în scrisoare. „Ar trebui să lăsăm mașinile să ne inunde canalele de informare cu propagandă și neadevăr? Ar trebui să automatizăm toate locurile de muncă, inclusiv pe cele îndeplinite? Ar trebui să riscăm pierderea controlului asupra civilizației noastre?”
Scrisoarea deschisă vine la câteva săptămâni după debutul public al GPT-4 OpenAI, modelul de limbă major care alimentează versiunea premium a popularului chatbot ChatGPT. Noul GPT-4 poate gestiona sarcini mai complexe și poate produce rezultate mai nuanțate decât versiunile anterioare și este, de asemenea, mai puțin supus defectelor versiunilor anterioare, conform OpenAI.
Pentru a-și face treaba, sisteme precum GPT-4 trebuie să fie instruite pe cantități mari de date pe care apoi să le poată utiliza pentru a răspunde la întrebări și a îndeplini alte sarcini. ChatGPT, care a intrat în scenă în noiembrie, are o capacitate umană de a scrie e-mailuri de serviciu, de a planifica itinerarii de călătorie, de a produce cod de computer și de a performa bine la teste precum examenul de barou.
OpenAI nu a răspuns imediat scrisorii deschise.
Dar pe site-ul său, OpenAI recunoaște necesitatea de a se asigura că sistemele tehnologice care sunt „în general mai inteligente decât oamenii” funcționează în beneficiul umanității. „La un moment dat, ar putea fi important să obțineți o revizuire independentă înainte de a începe să antrenați sistemele viitoare și, pentru cele mai avansate eforturi, să conveniți să limitați rata de creștere a calculului utilizat pentru crearea de noi modele”.
De la începutul anului, o listă din ce în ce mai mare de companii, inclusiv Google, Microsoft, Adobe, Snapchat, DuckDuckGo și Grammarly, au anunțat servicii care profită de abilitățile AI generative.
Cercetarea proprie a OpenAI a arătat că există riscuri care vin cu aceste abilități AI. Sistemele AI generative pot, de exemplu, să citeze surse nesigure sau, după cum a remarcat OpenAI, „să mărească provocările de siguranță prin luarea de acțiuni dăunătoare sau neintenționate, sporind capacitățile actorilor răi care ar frauda, induce în eroare sau abuzează pe alții”.
Experții în inteligență artificială sunt speriați de direcția către care s-ar putea îndrepta toate acestea și de companiile care se grăbesc să scoată produse fără garanții adecvate sau chiar să înțeleagă implicațiile.
„Sistemele AI avansate ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui să fie planificată și gestionată cu grijă și cu resurse pe măsură”, se spune în scrisoare. „Din păcate, acest nivel de planificare și management nu are loc, chiar dacă în ultimele luni laboratoarele de inteligență artificială au fost blocate într-o cursă scăpată de sub control pentru a dezvolta și a implementa minți digitale din ce în ce mai puternice pe care nimeni – nici măcar creatorii lor – nu le poate înțelege, prezice sau controla în mod fiabil.”