Un grup de angajați actuali și foști de la companiile de vârf în domeniul inteligenței artificiale, OpenAI și Google DeepMind, au publicat marți o scrisoare în care avertizează asupra pericolelor AI avansate, acuzând companiile că prioritizează câștigurile financiare în detrimentul supravegherii adecvate.
Scrisoarea semnată de angajați
Treisprezece angajați, dintre care unsprezece sunt actuali sau foști angajați ai OpenAI, compania din spatele ChatGPT, au semnat scrisoarea intitulată: „Un drept de a avertiza asupra inteligenței artificiale avansate”. Ceilalți doi semnatari sunt actuali și foști angajați ai Google DeepMind. Șase dintre aceștia au rămas anonimi.
Avertismentele și reacțiile companiilor
Coaliția avertizează că sistemele AI sunt suficient de puternice pentru a cauza daune serioase fără o reglementare corespunzătoare. „Aceste riscuri variază de la consolidarea inegalităților existente, la manipulare și dezinformare, până la pierderea controlului asupra sistemelor AI autonome, ceea ce ar putea duce la extincția umană,” se spune în scrisoare.
Purtătoarea de cuvânt a OpenAI, Lindsey Held, a declarat pentru New York Times: „Suntem mândri de performanța noastră în furnizarea celor mai capabile și mai sigure sisteme AI și credem în abordarea noastră științifică pentru a gestiona riscurile. Suntem de acord că o dezbatere riguroasă este crucială având în vedere semnificația acestei tehnologii și vom continua să colaborăm cu guvernele, societatea civilă și alte comunități din întreaga lume.”
Google DeepMind nu a comentat public scrisoarea și nu a răspuns solicitării de comentarii din partea presei.
Preocupările angajaților și măsurile de protecție
Scrisoarea acuză companiile AI că dețin informații despre riscurile tehnologiei AI, dar că evită să le dezvăluie guvernelor, păstrând secrete capacitățile reale ale sistemelor lor. Angajații sunt astfel singurii care pot trage companiile la răspundere public, însă mulți se confruntă cu acorduri de confidențialitate care îi împiedică să-și exprime îngrijorările în mod public.
„Protecțiile obișnuite pentru avertizori sunt insuficiente deoarece se concentrează pe activități ilegale, în timp ce multe dintre riscurile care ne preocupă nu sunt încă reglementate,” scrie grupul.
Solicitările grupului și reacțiile publice
Scrisoarea include patru cerințe pentru companiile AI avansate: încetarea forțării angajaților să semneze acorduri care îi împiedică să critice angajatorul pentru preocupări legate de riscuri, crearea unui proces anonim pentru angajați pentru a-și exprima îngrijorările către membrii consiliului de administrație și alte autorități relevante, sprijinirea unei „culturi a criticii deschise” și nereprezentarea împotriva foștilor și actualilor angajați care împărtășesc informații confidențiale legate de riscuri după eșecul altor procese.
Reglementări și inițiative internaționale
Guvernele din întreaga lume au făcut pași pentru a reglementa AI, deși progresul este mai lent decât ritmul dezvoltării AI. La începutul acestui an, Uniunea Europeană a adoptat prima legislație cuprinzătoare privind AI.
Eforturile de cooperare internațională au fost realizate prin Summituri de Siguranță AI în Marea Britanie și Coreea de Sud și la ONU. În octombrie 2023, președintele Joe Biden a semnat un ordin executiv care, printre altele, solicită companiilor AI să-și dezvăluie planurile de dezvoltare și testare a siguranței către Departamentul Comerțului.