Anthropic a dezvăluit un incident pe care îl descrie drept „primul caz documentat” în care un atac cibernetic de amploare a fost executat în proporție covârșitoare de un agent AI. Potrivit companiei, un grup de hackeri atribuit Chinei ar fi folosit unealta de programare Claude Code pentru o campanie de spionaj cibernetic ce a vizat aproximativ 30 de ținte „cu valoare ridicată” – companii mari de tehnologie, instituții financiare, producători din industria chimică și agenții guvernamentale.
- Cine sunt atacatorii și ce rol a avut Claude Code
- Cum au reușit hackerii să păcălească măsurile de siguranță
- Atac aproape autonom: AI-ul a făcut „munca grea”
- Reacția Anthropic: conturi blocate, victime notificate și noi măsuri de siguranță
- Limitele AI-ului: halucinații și rezultate inexacte
- Critici și întrebări deschise: cât de autonom a fost, de fapt, atacul?
- Ce spune acest caz despre viitorul atacurilor cibernetice
- Ce pot face organizațiile în fața atacurilor asistate de AI
Atacul, detectat la mijlocul lunii septembrie 2025, ar fi reușit în „un număr redus de cazuri”, oferind totuși atacatorilor acces la date sensibile în câteva organizații. Pentru restul țintelor, Anthropic afirmă că a intervenit în timp util pentru a limita consecințele.
Cine sunt atacatorii și ce rol a avut Claude Code
Potrivit raportului Anthropic, operațiunea a fost atribuită unui actor de amenințare susținut de stat, urmărit sub numele GTG-1002. Țintele au fost alese de oameni, însă execuția tehnică efectivă a atacului – de la recunoaștere, la exploatare și exfiltrare de date – ar fi fost în mare parte delegată AI-ului.
Anthropic susține că Claude Code a fost folosit nu doar ca „asistent” pentru generarea de cod sau idei, ci ca un veritabil agent autonom care a executat 80–90% din operațiune: a identificat vulnerabilități, a construit lanțuri de exploatare, a colectat date de autentificare și a orchestrat mișcarea laterală și exfiltrarea informațiilor.
Compania subliniază că, din perspectiva integrării și autonomiei AI pe parcursul întregului ciclu de atac, este vorba de o escaladare față de incidentele anterioare, în care modelele mari de limbaj erau folosite preponderent pentru generare de conținut sau asistență limitată în scrierea de cod.
Cum au reușit hackerii să păcălească măsurile de siguranță
Claude Code include mecanisme de siguranță menite să blocheze explicit cererile cu scop evident malițios. Totuși, grupul GTG-1002 ar fi reușit să „jailbreak-uiască” modelul printr-o serie de tactici de inginerie socială la nivel de prompt:
- a fragmentat atacul în sarcini mici, tehnice, aparent inofensive;
- a prezentat modelului scenariul ca pe un test legitim de securitate, desfășurat de un angajat al unei firme de cybersecurity;
- a evitat să ofere contextul complet al intenției malițioase, astfel încât fiecare cerere să treacă de filtrele de siguranță.
În raport, Anthropic descrie cum AI-ul a fost convins să „testeze” infrastructura IT a victimelor, generând cod pentru exploatarea vulnerabilităților, colectând nume de utilizator și parole și pregătind pașii pentru compromiterea conturilor cu privilegii ridicate.
Atac aproape autonom: AI-ul a făcut „munca grea”
Un element cheie al acestui caz este gradul de automatizare. Anthropic estimează că AI-ul a preluat 80–90% din sarcinile tactice, lăsând oamenilor doar decizii punctuale, precum aprobarea unor exploatări sau analizarea datelor extrase.
Schema descrisă de companie implică:
- un cadru dezvoltat de atacatori, care coordonează mai mulți „sub-agents” Claude;
- folosirea unor unelte standard de testare de penetrare (scannere, utilitare de spargere parole, analiză rețea), controlate prin AI;
- rularea de comenzi la o frecvență imposibil de atins de o echipă umană, cu mii de cereri pe secundă.
Pe scurt, AI-ul nu a inventat de la zero tehnicile de atac, ci a orchestrat unelte deja existente, dar la o viteză și o scală care depășesc capacitatea unei echipe umane chiar bine finanțate.
Reacția Anthropic: conturi blocate, victime notificate și noi măsuri de siguranță
După identificarea activității suspecte, Anthropic afirmă că a:
- blocat conturile Claude Code implicate;
- cartografiat cât mai complet operațiunea;
- notificat entitățile afectate, acolo unde a fost cazul;
- colaborat cu autoritățile pentru a furniza informații utile investigațiilor.
Compania spune că a introdus între timp protecții suplimentare pentru Claude Code, inclusiv mecanisme mai bune de detectare a abuzului și semnale de risc pentru scenarii care seamănă cu atacuri de tip spionaj cibernetic.
Incidentul vine după un alt raport Anthropic, publicat în august 2025, în care compania descria o campanie de extorcare de date în care infractori cibernetici au folosit Claude pentru a automatiza faze importante ale atacului – de la recunoaștere la redactarea mesajelor de șantaj către 17 organizații.
Limitele AI-ului: halucinații și rezultate inexacte
Interesant este că Anthropic menționează și un fel de „autogol” al AI-ului: în timpul atacului, Claude Code ar fi produs și informații greșite sau exagerate, inclusiv concluzii despre vulnerabilități sau acces la date care, ulterior, nu s-au confirmat în logurile reale.
Cu alte cuvinte, aceeași problemă de „halucinație” care ridică semne de întrebare în aplicațiile de zi cu zi (texte inventate, referințe inexistente) apare și în contextul atacurilor cibernetice. Din perspectiva apărătorilor, acest lucru poate fi o mică veste bună: AI-ul nu este infailibil nici măcar când este folosit de atacatori foarte bine pregătiți.
Critici și întrebări deschise: cât de autonom a fost, de fapt, atacul?
Nu toți specialiștii sunt convinși de modul în care Anthropic își prezintă cazul. Unii experți în securitate cibernetică au ridicat semne de întrebare legate de lipsa detaliilor tehnice publice și de modul în care este definită „autonomia” AI-ului în acest context.
Un alt punct critic privește atribuirea atacului unui grup susținut de statul chinez, dar și alegerea unui model american, în locul unor LLM-uri dezvoltate în China. Unii cercetători se întreabă dacă acest lucru indică limitări ale modelelor locale sau alte motive strategice, în condițiile în care folosirea unui serviciu AI din SUA crește riscul de expunere și blocare.
De asemenea, unii analiști subliniază că AI-ul nu a acționat în vid: atacatorii au combinat Claude Code cu un arsenal de unelte open-source de testare de penetrare și cu infrastructuri standard de scanare și spargere parole, astfel încât rolul AI-ului a fost de orchestrator și accelerator al unui set de tehnici deja cunoscute.
Ce spune acest caz despre viitorul atacurilor cibernetice
Chiar și cu aceste rezerve, incidentul indică o direcție clară: AI-ul de tip „agent” poate scala și industrializa atacuri care înainte necesitau echipe mari, timp îndelungat și expertiză profundă.
Riscurile majore țin de:
- democratizarea capabilităților – actori cu pregătire tehnică limitată pot lansa atacuri complexe, folosind AI pentru a genera cod, a analiza infrastructuri și a orchestra pașii;
- creșterea vitezei – mii de cereri pe secundă, automatizate, pot depăși capacitatea de detecție și reacție a sistemelor tradiționale;
- ambiguitatea rolului AI – același tip de modele sunt folosite atât pentru apărare (detecție de anomalii, triere de alerte), cât și pentru ofensivă.
Anthropic și alți furnizori de modele mari de limbaj insistă că aceeași tehnologie poate fi utilizată pentru a întări apărarea: automatizarea răspunsului la incidente, analiză rapidă a logurilor, identificarea tiparelor anormale înainte ca acestea să producă un incident major.
Ce pot face organizațiile în fața atacurilor asistate de AI
Dincolo de titlurile spectaculoase, lecțiile pentru companii și instituții rămân, în mare, cele clasice – dar cu o presiune mai mare pe automatizare și monitorizare continuă:
- consolidarea autentificării (MFA, parole unice, rotație periodică a credențialelor sensibile);
- prioritizarea patch-urilor pentru sisteme expuse public și aplicații critice;
- segmentarea rețelei, pentru a limita mișcarea laterală în cazul unei breșe;
- loguri detaliate și alerte automate corelate cu instrumente de detecție bazate pe AI;
- politici clare privind folosirea instrumentelor AI în interior (de ex. ce date pot fi introduse într-un chatbot, ce acces au agenții autonomi la sisteme reale).
Cazul GTG-1002 arată că discuția despre „agentic AI” nu mai este doar teoretică. Fără transparență, testare riguroasă și limite clare asupra rolului acestor sisteme, riscul ca ele să devină instrumente de atac – nu doar de apărare – este tot mai greu de ignorat.






