Meta, compania condusă de Mark Zuckerberg, și-a reafirmat angajamentul de a face inteligența generală artificială (AGI) disponibilă public într-o zi. Cu toate acestea, un nou document de politică al companiei sugerează că există scenarii în care Meta ar putea decide să nu lanseze un sistem AI avansat pe care l-a dezvoltat intern.
Documentul, numit Frontier AI Framework, stabilește două categorii de sisteme AI pe care Meta le consideră prea riscante pentru a fi făcute publice: sisteme cu risc ridicat (high-risk) și sisteme cu risc critic (critical-risk).
Ce reprezintă aceste riscuri?
Meta definește sistemele cu risc ridicat ca fiind capabile să faciliteze atacuri cibernetice, chimice sau biologice, însă fără a garanta succesul acestora. Pe de altă parte, sistemele cu risc critic ar putea duce la consecințe catastrofale, fără posibilitatea de a fi atenuate în contextul în care sunt utilizate.
Documentul oferă exemple de astfel de atacuri, printre care:
- Compromiterea automată și completă a unui sistem informatic corporativ protejat conform celor mai bune practici
- Proliferarea armelor biologice cu impact major
Meta recunoaște că lista pericolelor potențiale nu este exhaustivă, dar afirmă că se concentrează pe cele mai urgente și realiste amenințări care ar putea rezulta din utilizarea necontrolată a unui AI avansat.
Cum decide Meta dacă un AI este prea periculos?
O particularitate a abordării Meta este că riscul unui sistem nu este determinat printr-un test empiric unic, ci prin consultarea experților interni și externi, ale căror concluzii sunt supuse unei revizuiri de către factorii de decizie de nivel superior. Compania justifică această strategie afirmând că știința evaluării riscurilor AI nu este suficient de avansată pentru a oferi metrici cantitative definitive.
Dacă un sistem este considerat cu risc ridicat, Meta îi limitează accesul intern și nu îl va publica până când riscurile nu sunt reduse la un nivel moderat. În schimb, dacă un sistem este clasificat ca având un risc critic, dezvoltarea acestuia va fi suspendată, iar Meta va implementa măsuri de securitate pentru a preveni exfiltrarea acestuia.
Un răspuns la criticile privind „transparența” AI
Această inițiativă pare să fie un răspuns la criticile primite de Meta privind abordarea sa deschisă în dezvoltarea AI. Spre deosebire de companii precum OpenAI, care impun restricții de acces prin API-uri, Meta a adoptat o strategie de distribuire „deschisă” a tehnologiei sale AI. Această abordare a fost atât un avantaj, cât și un dezavantaj.
Modelul său de AI, Llama, a fost descărcat de sute de milioane de ori, însă a fost folosit și de adversari ai SUA pentru dezvoltarea unor chatboți de apărare, potrivit unor rapoarte.
Meta ar putea, de asemenea, să încerce să-și diferențieze strategia de AI de abordarea adoptată de compania chineză DeepSeek, care permite accesul liber la modelele sale AI, dar fără suficiente măsuri de siguranță. Spre deosebire de DeepSeek, Meta dorește un echilibru între beneficii și riscuri.
Concluzie: AI deschis, dar cu limite
Meta transmite un mesaj clar: nu va distribui AI-uri care ar putea facilita atacuri cibernetice sau biologice, iar deciziile privind riscurile vor fi luate de experți și factori de decizie interni.
Într-o lume în care AI-ul devine tot mai puternic, strategia Meta ar putea reprezenta un compromis între inovație și securitate, păstrând transparența, dar și impunând limite acolo unde pericolele devin prea mari.