Un nou documentar exploziv publicat de TechCrunch dezvăluie existența unei baze de date masive, scurse accidental, care arată cum China dezvoltă și antrenează un model lingvistic de tip LLM (Large Language Model) pentru a detecta automat orice conținut considerat „sensibil” de către autoritățile chineze. Sistemul ar reprezenta un salt tehnologic în instrumentele deja sofisticate de cenzură ale Partidului Comunist Chinez (PCC), extinzându-se dincolo de subiectele tabu tradiționale, precum masacrul din Tiananmen.
Ce face modelul AI: Cenzură predictivă la scară largă
Baza de date, descoperită de cercetătorul în securitate NetAskari pe un server Baidu nesecurizat, conține peste 133.000 de exemple de postări și articole – de la plângeri privind sărăcia rurală și corupția poliției locale, până la satire politice și comentarii despre Taiwan. Acestea sunt folosite pentru a antrena un model AI capabil să recunoască automat și subtil semnalele de disidență sau critică adusă autorităților.
Instrucțiunile din codul asociat arată că modelul este programat să acorde „prioritate maximă” detectării unor teme precum:
- sărăcia rurală și inegalitățile sociale,
- corupția funcționarilor publici,
- nemulțumiri economice sau crize financiare,
- mișcări de protest, greve și dispute de muncă,
- satiră politică sau analogii istorice cu sens critic,
- chestiuni legate de Taiwan și capacitățile sale militare.
De asemenea, conținutul legat de mișcările militare, exercițiile armatei chineze, noile arme și comentariile despre puterea armatei sunt tratate ca subiecte sensibile ce trebuie identificate și blocate.
Un nou tip de cenzură: mai puțin vizibilă, dar mult mai eficientă
Spre deosebire de mecanismele tradiționale de cenzură, bazate pe filtre de cuvinte-cheie și recenzori umani, utilizarea unui LLM antrenat special pentru cenzură permite detectarea nu doar a mesajelor directe, ci și a celor subtile, metaforice sau codificate.
Xiao Qiang, cercetător la Universitatea UC Berkeley, care a analizat baza de date, afirmă că această descoperire reprezintă „o dovadă clară” a intenției guvernului chinez de a folosi inteligența artificială pentru a rafina și intensifica controlul asupra discursului public. „Este o formă de represiune digitală cu un grad de sofisticare fără precedent”, a subliniat acesta.
Conținut analizat: De la idiomuri populare la acuzații de corupție
Printre fragmentele de text analizate se regăsesc plângeri de la antreprenori care acuză poliția de extorcare, reportaje despre oficiali ai PCC excluși pentru corupție și superstiții, dar și anecdote culturale ce reflectă schimbările de putere – precum idiomul chinezesc „Când cade copacul, maimuțele se împrăștie”, o metaforă pentru pierderea influenței politice.
Un exemplu menționat în analiză este referința la Taiwan, menționată de peste 15.000 de ori în baza de date – indicând o preocupare sistemică pentru controlul narativelor despre insula autonomă.
AI-ul, noul instrument al „muncii de opinie publică” în China
Termenul „public opinion work” apare în mai multe fișiere din setul de date, sugerând legătura directă cu activitatea Autorității Chineze pentru Spațiul Cibernetic (CAC), responsabilă de reglementarea și propaganda online în China. Acest concept desemnează în mod tradițional cenzura, modelarea opiniei publice și răspândirea de narațiuni favorabile partidului.
Președintele Xi Jinping a descris internetul drept „linia întâi a muncii de opinie publică” – o afirmație care reflectă angajamentul regimului de a transforma AI într-o unealtă strategică de control informațional.
Reprimarea disidenței cu algoritmi: tendință globală în regimurile autoritare
Raportul TechCrunch vine în contextul unei serii de avertismente internaționale cu privire la utilizarea AI de către regimuri autoritare. OpenAI a dezvăluit recent că entități din China au folosit LLM-uri pentru a monitoriza discursul de pe rețelele sociale, a identifica disidenți și a genera campanii de defăimare.
Dacă în trecut China s-a bazat pe cenzură rudimentară și interdicții brute, noile tehnologii AI permit acum identificarea și blocarea automatizată a opiniilor critice – fie ele explicite sau implicite, directe sau metaforice – la o scară nemaiîntâlnită.
Concluzie: o nouă eră a controlului informațional în China
Ceea ce dezvăluie acest sistem este o schimbare profundă în paradigma cenzurii chineze: trecerea de la interdicții reactive, la un mecanism proactiv, automatizat și alimentat de date. Inteligența artificială devine astfel un pilon esențial în arsenalul digital al statelor autoritare, capabil să detecteze nu doar ce este spus, ci și ceea ce se sugerează, gândește sau aluzionază.
Într-o lume în care AI-ul este folosit pentru a scrie poezie, programa roboți sau traduce limbi, în China el este transformat într-un supraveghetor tăcut, dar omniprezent, al libertății de exprimare.