Noua lege a Uniunii Europene pentru reglementarea dezvoltării, utilizării și aplicării inteligenței artificiale este acum în vigoare. Actul privind IA, prima lege majoră în domeniul inteligenței artificiale din lume, a primit undă verde finală de la statele membre ale blocului, legislatori și Comisia Europeană în luna mai. Legea armonizează regulile privind utilizarea și dezvoltarea inteligenței artificiale pe piața unică a UE.
„Această lege de referință, prima de acest fel în lume, abordează o provocare tehnologică globală care creează, de asemenea, oportunități pentru societățile și economiile noastre”, a declarat Mathieu Michel, secretar de stat belgian pentru digitalizare. „Cu Actul privind IA, Europa subliniază importanța încrederii, transparenței și responsabilității în gestionarea noilor tehnologii, asigurând în același timp că această tehnologie în continuă schimbare poate înflori și stimula inovația europeană.”
Deși Actul privind IA este o legislație a UE, va avea un impact major asupra companiilor de tehnologie la nivel global, în special în SUA. Totuși, majoritatea prevederilor actului nu vor intra în vigoare până în 2026, oferind companiilor câteva luni pentru a se conforma.
Ce prevede Actul privind IA?
Actul privind IA a fost propus pentru prima dată de Comisia Europeană în 2020, având ca obiectiv asigurarea faptului că sistemele IA utilizate și dezvoltate în UE sunt sigure și de încredere. De asemenea, urmărește să se asigure că sistemele IA respectă legile existente privind drepturile fundamentale ale cetățenilor UE și să stimuleze investițiile și inovația în domeniul IA în bloc.
Legea urmează o abordare „bazată pe risc” pentru reglementarea IA, ceea ce înseamnă că, cu cât este mai mare riscul de vătămare, cu atât mai stricte sunt regulile. Sistemele IA clasificate ca având „risc limitat” trebuie doar să fie transparente, în timp ce cele din categoria „risc ridicat” trebuie să urmeze anumite cerințe și obligații pentru a fi permise pe piața UE. Aceste obligații includ măsuri de evaluare și atenuare a riscurilor, precum și seturi de date de înaltă calitate care să minimizeze prejudecățile. Sistemele IA cu risc ridicat includ dispozitive medicale și sisteme de identificare biometrică.
În același timp, sistemele IA care pot fi utilizate pentru manipularea comportamentală cognitivă și scoring social sunt interzise în bloc. De asemenea, sunt interzise sistemele IA care depind de date biometrice, cum ar fi rasa și orientarea sexuală, pentru poliție predictivă.
Cum se încadrează IA generativă în toate acestea?
În conformitate cu actul, modelele IA generative sunt considerate IA de uz general, sau modele care pot îndeplini sarcini aproape la nivel uman. Modelele IA de uz general sunt considerate a nu prezenta riscuri sistemice și au cerințe și obligații limitate, cum ar fi transparența în ceea ce privește modul în care sunt antrenate.
Actul privind IA definește modelele IA de uz general ca fiind: „capabile să genereze text, imagini și alt conținut.” Deși modelele de uz general, cum ar fi ChatGPT de la OpenAI și Gemini de la Google, „prezintă oportunități unice de inovare,” ele prezintă și „provocări pentru artiști, autori și alți creatori și modul în care conținutul lor creativ este creat, distribuit, utilizat și consumat.”
Prin urmare, aceste modele sunt supuse unor cerințe stricte în ceea ce privește respectarea legii drepturilor de autor din UE, testarea de rutină și securitatea cibernetică.
În același timp, IA open-source, cum ar fi modelele Llama de la Meta, se încadrează, de asemenea, sub reglementare, cu câteva excepții pentru dezvoltatorii care fac publice parametrii și permit „accesul, utilizarea, modificarea și distribuția modelului.”
Cum sunt afectate companiile de tehnologie din SUA?
Majoritatea sistemelor IA avansate care intră sub incidența Actului privind IA sunt dezvoltate de companii de tehnologie din SUA, inclusiv Apple, Google și Meta. Totuși, legea va merge probabil dincolo de firmele tehnologice care construiesc și dezvoltă IA și va afecta afacerile care folosesc tehnologia sau dezvoltă propriile sisteme.
În iulie, Meta a anunțat că a decis să nu lanseze modelele sale IA multimodale viitoare în UE „din cauza naturii imprevizibile a mediului de reglementare european.” Decizia companiei a urmat anunțului Apple din iunie, care a spus că probabil nu va introduce noul său sistem Apple Intelligence și alte funcții IA în bloc din cauza Actului privind piețele digitale.
Deși modelele multimodale ale Meta vor fi sub o licență deschisă, companiile din Europa nu vor putea să le utilizeze din cauza deciziei companiei, a raportat Axios. Și companiile din afara blocului pot fi blocate să ofere produse și servicii pe continent care folosesc modelele Meta. Totuși, Meta va pune la dispoziție în UE o versiune mai mare, doar text, a modelului său Llama 3 când va fi lansat, a declarat compania pentru Axios.
În iunie, Meta a spus că va întârzia antrenarea modelelor sale mari de limbaj pe date publice de la utilizatorii Facebook și Instagram din Uniunea Europeană după ce a primit reacții negative din partea Comisiei Irlandeze pentru Protecția Datelor (DPC).
Care sunt sancțiunile pentru nerespectarea regulilor?
Dacă o companie încalcă Actul privind IA, aceasta se confruntă cu o amendă fie de un procent din cifra de afaceri anuală globală din anul financiar anterior, fie o sumă predeterminată — oricare dintre acestea este mai mare. Amenda poate varia de la 35 de milioane de euro (38 de milioane de dolari) sau 7% din cifra de afaceri globală, până la 7,5 milioane de euro (8,1 milioane de dolari) sau 1% din cifra de afaceri.
Amenda este proporțională pentru întreprinderile mici și mijlocii și pentru startup-uri.