Reglementările cuprinzătoare ale Uniunii Europene privind inteligența artificială, finalizate vineri după un maraton de negocieri de 36 de ore, vin cu o problemă: UE este blocată într-un gol legal până în 2025, când regulile intră în vigoare.
De ce contează asta ? În calitate de primă putere globală care a adoptat o legislație cuprinzătoare în domeniul inteligenței artificiale, UE stabilește din nou ceea ce ar putea deveni standarde de reglementare la nivel mondial – la fel ca în privința regulilor de confidențialitate digitală – dar tranziția ar putea fi accidentată.
Deoarece legea nu va fi în vigoare până în 2025, UE va îndemna companiile să înceapă voluntar să respecte regulile între timp. Dar nu există penalități dacă nu o fac.
Pauza lasă mult spațiu pentru SUA sau altora să submineze planurile UE înainte ca acestea să intre în vigoare, de exemplu, prin implementarea unor reguli mai puțin restrictive înainte de intrarea în vigoare a Europei. Liderul majorității din Senatul SUA, Chuck Schumer, și-a exprimat îngrijorarea că legile în stil UE adoptate de SUA ar dezavantaja firmele americane în concurența cu China.
Factorii de decizie europeni au început să lucreze la Actul AI înainte de sosirea ChatGPT în noiembrie 2022 și de explozia de pe piața generativă de AI în 2023. Abordarea UE clasifică utilizările AI în funcție de patru niveluri de risc, cu restricții din ce în ce mai stricte asociate cu riscuri potențiale mai mari.
Legea UE interzice mai multe utilizări ale inteligenței artificiale, inclusiv răzuirea în vrac a imaginilor faciale și majoritatea sistemelor de recunoaștere a emoțiilor la locul de muncă și în mediul educațional. Există excepții de siguranță, cum ar fi utilizarea AI pentru a detecta un șofer care adoarme.
Noua lege interzice, de asemenea, sistemele controversate de „scorare socială” – eforturi de evaluare a conformității sau a credibilității cetățenilor. Limitează, de asemenea, tehnologia de recunoaștere facială în aplicarea legii la o serie de utilizări acceptabile, inclusiv identificarea victimelor terorismului, traficului de persoane și răpirii. Furnizorii de modele ale fundației vor trebui să trimită rezumate detaliate ale datelor de instruire pe care le-au folosit pentru a-și construi modelele.
Există și sancțiuni dure. Companiile care încalcă regulile se pot confrunta cu amenzi cuprinse între 1,5% și 7% din vânzările globale. Operatorii sistemelor care creează medii manipulate vor trebui să dezvăluie acest lucru utilizatorilor. Furnizorii de alte IA cu „risc ridicat”, în special în serviciile publice esențiale, vor fi supuși cerințelor de raportare, inclusiv dezvăluirea către bazele de date publice și evaluările impactului asupra drepturilor omului.
Utilizările AI acoperite de aceste cerințe includ educația, angajarea, alegerile, infrastructura critică și controlul la frontieră.â
Guvernele naționale ale UE, cu Franța în fruntea acuzației, au cerut și au câștigat scutiri de la unele aspecte ale legii pentru utilizările militare sau de apărare ale IA. Principala linie de demarcație în negocieri a fost între guvernele naționale care cer scutiri de securitate națională și parlamentarii care apărau libertățile civile.