OpenAI promite măsuri mai stricte pentru a împiedica utilizatorii Sora — aplicația sa de generare video cu AI — să creeze clipuri cu chipul și vocea actorilor fără consimțământ. Anunțul vine după ce Bryan Cranston și SAG-AFTRA (sindicatul actorilor) au semnalat apariția unor deepfake-uri realizate fără acordul persoanelor vizate, ceea ce a accelerat negocierile dintre OpenAI, sindicat și mai multe agenții de talente.
Ce s-a schimbat concret
- Opt-in, nu opt-out: Celebritățile trebuie să își dea acordul explicit pentru ca imaginea sau vocea lor să poată fi folosite în Sora.
- „Garduri de protecție” întărite: OpenAI spune că a întărit mecanismele care blochează replicarea vocii și a fizionomiei și își exprimă „regretul pentru aceste generări neintenționate”.
- Canal dedicat drepturilor de imagine: Reprezentanții legali ai persoanelor publice (inclusiv moștenitori/estate-uri) pot solicita excluderea completă a likeness-ului din Sora.
De ce a izbucnit discuția
Sora s-a lansat în urmă cu trei săptămâni, stârnind un val de interes — și îngrijorări. Spre deosebire de alte generatoare video, Sora a permis, în unele cazuri, introducerea chipului altor persoane în clipuri AI. De la clipuri „amuzante” până la deepfake-uri greu de deosebit de realitate, linia s-a subțiat periculos. Actorul Bryan Cranston a observat prompt folosirea feței sale în Sora și a sesizat sindicatul.
OpenAI avea deja unele filtre (de pildă, un prompt pentru un clip cu Taylor Swift a fost respins), dar protecțiile nu au fost perfecte. Săptămâna trecută au circulat tot mai multe clipuri cu Martin Luther King Jr., de la montaje „jucăușe” până la conținut ofensator, ceea ce a determinat reacții publice ferme — inclusiv de la Bernice A. King și Zelda Williams, fiica lui Robin Williams, care a numit astfel de materiale „grosolane”.
Miza legală: imagine, voce, copyright și consimțământ
Conflictele dintre companiile AI și titularii de drepturi (actori, moștenitori, studiouri, agenții) se ascut. Drepturile de imagine și de publicitate (right of publicity), drepturile conexe și copyright-ul converg aici într-un teren complicat. În trecut, OpenAI ar fi sugerat unor agenții să opteze pentru excludere (opt-out) privind folosirea proprietății intelectuale în Sora, poziție dificil de aliniat cu practica tradițională de licențiere prealabilă; compania a retractat ulterior abordarea.
Noul acord subliniază că persoanele publice și familiile lor trebuie să dețină controlul final asupra modului în care imaginea le este utilizată. Pentru figuri istorice ca MLK, estate-ul deține autoritatea de a permite sau interzice folosirea likeness-ului.
SAG-AFTRA a transmis că se află în „contact regulat” cu companii tech, agenții, studiouri și case de discuri pentru a mitiga riscurile de uzurpare a proprietății intelectuale, într-un peisaj în care pericolele sunt „imediate și reale”.
Sora: potențial creativ, risc de „eroziune a realității”
Sora este o „soră” a ChatGPT, orientată spre generarea și partajarea de clipuri video. Noutatea — și problema — e că poate compune secvențe verosimile cu fețe și voci recognoscibile, reducând dramatic costul și timpul pentru a crea conținut fals convingător. Rezultatul: o „eroziune a realității” care amplifică dezinformarea, hărțuirea și prejudiciul reputațional, cu impact direct asupra veniturilor și brandului personal al artiștilor.
Ce urmează pentru industrie
- Standardizare de bune practici: Acordul poate deveni precedent pentru alte platforme AI (video, audio, avataruri) care vor fi presate să adopte modele de consimțământ explicit și verificare a drepturilor.
- Tehnologie de verificare a identității și a drepturilor: Ne putem aștepta la watermarking robust, id-verification pentru încărcători, matching biometric cu baze licențiate și jurnale de audit.
- Legislație și litigii: Procesele și reglementările (statale, federale, UE) vor împinge spre regimuri clare de licențiere pentru voce și chip, cu sancțiuni pentru abuz.
Ce pot face creatorii și utilizatorii
- Pentru artiști/agenți: Înregistrați politici de folosire a likeness-ului, centralizați mandatele legale, setați alerte pentru apariții neautorizate, și folosiți canalele oficiale ale platformei pentru delistări rapide.
- Pentru utilizatori: Respectați drepturile de imagine și copyright-ul. Evitați să generați sau distribuiți clipuri cu persoane reale fără consimțământ. Raportați prompt deepfake-urile abuzive.
Concluzie
Acordul dintre OpenAI și SAG-AFTRA nu rezolvă peste noapte problema deepfake-urilor, dar marchează un pas important: mută standardul de la „oprește-ne dacă poți” la „pornește doar cu acord”. Pe măsură ce AI-ul generativ video devine tot mai accesibil, consimțământul, transparența și compensarea vor fi cheile unui ecosistem sustenabil — pentru artiști, platforme și public deopotrivă.







