Sam Altman crede că tehnologia care stă la baza celui mai faimos produs al companiei sale ar putea duce la sfârșitul civilizației umane, scriu cei de la CNN.
În mai, CEO-ul OpenAI, Sam Altman, a depus mărturie într-o sală de ședințe a subcomisiei Senatului din Washington, DC, cu o cerere urgentă adresată parlamentarilor: să creeze reglementări bine gândite care să îmbrățișeze promisiunea puternică a inteligenței artificiale – în același timp atenuând riscul ca aceasta să depășească omenirea. A fost un moment definitoriu pentru el și pentru viitorul AI.
Odată cu lansarea ChatGPT al OpenAI la sfârșitul anului trecut, Altman, în vârstă de 38 de ani, a apărut peste noapte ca afișul pentru o nouă serie de instrumente AI care pot genera imagini și texte ca răspuns la solicitările utilizatorilor, o tehnologie numită AI generativă. La scurt timp după lansare, ChatGPT a devenit un nume cunoscut aproape sinonim cu AI în sine. Directorii executivi l-au folosit pentru a redacta e-mailuri, oamenii au creat site-uri web fără experiență anterioară de codare și au trecut examenele de la școlile de drept și de afaceri. Are potențialul de a revoluționa aproape fiecare industrie, inclusiv educația, finanțele, agricultura și asistența medicală, de la operații până la dezvoltarea de vaccinuri medicinale.
Dar aceleași instrumente au ridicat îngrijorări cu privire la orice, de la înșelăciune în școli și înlocuirea lucrătorilor umani – chiar și o amenințare existențială la adresa umanității. Creșterea IA, de exemplu, i-a determinat pe economiști să avertizeze despre o piață a muncii. Potrivit estimărilor Goldman Sachs, până la 300 de milioane de locuri de muncă cu normă întreagă din întreaga lume ar putea fi în cele din urmă automatizate într-un fel prin IA generativă. Aproximativ 14 milioane de poziții ar putea dispărea doar în următorii cinci ani, potrivit unui raport din aprilie al Forumului Economic Mondial.
În mărturia sa în fața Congresului, Altman a spus că potențialul ca AI să fie folosit pentru a manipula alegătorii și a viza dezinformarea se numără printre „zonele de cea mai mare îngrijorare”.
La două săptămâni după audiere, Altman s-a alăturat sutelor de oameni de știință de top în domeniul inteligenței artificiale, cercetători și lideri de afaceri pentru a semna o scrisoare în care afirmă: „Atenuarea riscului de dispariție din cauza inteligenței artificiale ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear. ”
Avertismentul a fost acoperit pe scară largă în presă, unii sugerând că a arătat necesitatea de a lua mai în serios astfel de scenarii apocaliptice. De asemenea, a evidențiat o dinamică importantă în Silicon Valley: directorii de top ale unora dintre cele mai mari companii de tehnologie spun publicului că AI are potențialul de a provoca dispariția umană, în același timp, se întrec pentru a investi și a implementa această tehnologie în produse care ajung la miliarde de oameni. .
Deși Altman, un antreprenor de lungă durată și investitor în Silicon Valley, a rămas în mare parte în afara reflectoarelor în anii precedenți, ochii s-au îndreptat spre el în ultimele luni, ca afiș al revoluției AI. Acest lucru l-a expus, de asemenea, la litigii, la controlul de reglementare și atât laude, cât și condamnări în întreaga lume.

Totuși, în acea zi, în fața subcomisiei din Senat, Altman a descris boom-ul actual al tehnologiei ca fiind un moment esențial.
Altman s-a prezentat de mult timp ca cineva care este atent la riscurile pe care le prezintă AI și s-a angajat să avanseze în mod responsabil. El este unul dintre cei mai mulți directori generali de tehnologie care se întâlnesc cu liderii de la Casa Albă, inclusiv vicepreședintele Kamala Harris și președintele Joe Biden, pentru a sublinia importanța dezvoltării AI etice și responsabile.
Alții doresc ca Altman și OpenAI să se miște cu mai multă precauție. Elon Musk, care a ajutat la înființarea OpenAI înainte de a se rupe din grup, și zeci de lideri tehnologici, profesori și cercetători au solicitat laboratoarelor de inteligență artificială precum OpenAI să oprească pregătirea celor mai puternice sisteme AI timp de cel puțin șase luni, invocând „riscuri profunde pentru societate și umanitate.” (În același timp, unii experți s-au întrebat dacă cei care au semnat scrisoarea au căutat să-și mențină avantajul competitiv față de alte companii.)
Altman a spus că este de acord cu anumite părți ale scrisorii, inclusiv că „limita de siguranță trebuie să crească”, dar a spus că o pauză nu ar fi o „modalitate optimă” de a aborda provocările.
Totuși, OpenAI are piciorul așezat ferm pe pedala de accelerație. Cel mai recent, OpenAI și designerul de iPhone Jony Ive ar fi fost în discuții pentru a strânge 1 miliard de dolari de la conglomeratul japonez SoftBank pentru un dispozitiv AI care să înlocuiască sma.
Cei care îl cunosc pe Altman l-au descris ca pe cineva care face pariuri prevestitoare și chiar a fost numit „un startup Yoda” sau „Kevin Bacon din Silicon Valley”, după ce a lucrat cu toată lumea din industrie. Aaron Levie, CEO-ul companiei de cloud pentru întreprinderi Box și un prieten de lungă durată al lui Altman, care a venit cu el în lumea startup-urilor, a declarat pentru CNN că Altman este „introspectiv” și vrea să dezbată idei, să obțină puncte de vedere diferite și să încurajeze la nesfârșit feedback-ul despre indiferent la ce lucrează.
Când a pornit OpenAI, Altman a spus celor de la CNN în 2015 că a vrut să conducă calea AI, mai degrabă decât să-și facă griji cu privire la potențialele daune și să nu facă nimic. „Dorm mai bine știind că pot avea o oarecare influență acum”, a spus el.
În ciuda statutului său de lider, Altman spune că rămâne îngrijorat de tehnologie. „Mă pregătesc pentru supraviețuire”, a spus el într-un profil din 2016 în New Yorker, menționând mai multe posibile scenarii de dezastru, inclusiv „A.I. care ne atacă.”
Unii experți din industria AI spun, totuși, că concentrarea atenției asupra scenariilor apocaliptice îndepărtate poate distrage atenția de la daunele mai imediate pe care o nouă generație de instrumente AI puternice le poate cauza oamenilor și comunităților. Rowan Curran, analist la firma de cercetare de piață Forrester, a recunoscut preocupările legitime cu privire la asigurarea faptului că datele de instruire, în special pentru modele enorme, au o părtinire minimă – sau au o părtinire care este înțeleasă și poate fi atenuată.