Legislația emblematică a Uniunii Europene privind inteligența artificială (AI) este pe cale să devină lege anul acesta, dar parlamentarii sunt împărțiți în ceea ce privește definiția inteligenței artificiale și care sisteme ar trebui considerate cu risc ridicat.
Dacă sistemele AI de uz general (GPAIS) precum ChatGPT sunt clasificate ca fiind cu risc ridicat, companiile care le folosesc ar trebui să finalizeze evaluările riscurilor, să înregistreze activitățile și să pună datele la dispoziția autorităților, ceea ce ar putea însemna costuri mai mari de conformitate.
Activiștii pentru drepturile digitale doresc să vadă controale mai stricte asupra utilizării AI în aplicarea legii, migrație și justiție – cu interdicții privind controlul predictiv și colectarea de date biometrice, cum ar fi recunoașterea facială.
Legea AI este de așteptat să fie o piesă de referință a legislației UE care reglementează utilizarea inteligenței artificiale în Europa, care este în lucru de peste doi ani.
Legislatorii au propus clasificarea diferitelor instrumente AI în funcție de nivelul lor de risc perceput, de la scăzut la inacceptabil. Guvernele și companiile care folosesc aceste instrumente vor avea obligații diferite, în funcție de nivelul de risc.
CARE ESTE SCOPUL ACTULUI?
Legea este extinsă și va guverna pe oricine furnizează un produs sau un serviciu care utilizează AI. Legea va acoperi sisteme care pot genera rezultate, cum ar fi conținut, predicții, recomandări sau decizii care influențează mediile.
Pe lângă utilizările AI de către companii, se va analiza și AI utilizat în sectorul public și în aplicarea legii. Acesta va funcționa în tandem cu alte legi, cum ar fi Regulamentul general privind protecția datelor (GDPR).
Cei care folosesc sisteme AI care interacționează cu oamenii, sunt folosiți în scopuri de supraveghere sau pot fi folosiți pentru a genera conținut „deepfake” se confruntă cu obligații puternice de transparență.
CE SE CONSIDERA „RISC CRESCUT”?
O serie de instrumente AI pot fi considerate cu risc ridicat, cum ar fi cele utilizate în infrastructura critică, aplicarea legii sau educație. Sunt cu un nivel sub „inacceptabil” și, prin urmare, nu sunt interzise definitiv.
În schimb, cei care utilizează IA cu risc ridicat vor fi probabil obligați să finalizeze evaluări riguroase ale riscurilor, să își înregistreze activitățile și să pună datele la dispoziția autorităților pentru a le verifica. Acest lucru ar putea crește costurile de conformitate pentru companii.
Multe dintre categoriile de „risc ridicat” în care utilizarea IA va fi strict controlată ar fi domenii precum aplicarea legii, migrația, infrastructura, siguranța produselor și administrarea justiției.
CE ESTE UN „GPAIS”?
Un GPAIS (General Purpose AI System) este o categorie propusă de legiuitori pentru a lua în considerare instrumentele AI cu mai multe aplicații, cum ar fi modelele AI generative precum ChatGPT.
Legislatorii dezbat în prezent dacă toate formele de GPAIS vor fi desemnate cu risc ridicat și ce ar însemna asta pentru companiile de tehnologie care doresc să adopte AI în produsele lor. Proiectul nu clarifică ce obligații ar fi supuși producătorii de sisteme AI.
DACĂ O COMPANIE ÎNCĂLCĂ REGULILE?
Propunerile spun că cei descoperiți că încalcă Legea AI riscă amenzi de până la 30 de milioane de euro sau 6% din profiturile globale, oricare dintre acestea este mai mare.
Pentru o companie precum Microsoft, care susține creatorul ChatGPT OpenAI, ar putea însemna o amendă de peste 10 miliarde de dolari dacă este găsită că încalcă regulile.
CÂND VA INTRA ÎN VIGOARE ACTUL AI?
Deși industria se așteaptă ca legea să fie adoptată în acest an, nu există un termen limită concret. Legea este discutată de parlamentari, iar după ce vor ajunge la un punct comun, va avea loc un trilog între reprezentanții Parlamentului European, ai Consiliului Uniunii Europene și ai Comisiei Europene.
După finalizarea termenilor acordului, va exista o perioadă de grație de aproximativ doi ani pentru a permite părților afectate să respecte reglementările.