Cercetători și organizații pentru siguranța copiilor susțin că instrumentele Instagram destinate protejării adolescenților de conținut dăunător nu își ating scopul. Într-un studiu realizat de centrul american Cybersecurity for Democracy, împreună cu experți precum avertizorul de integritate Arturo Béjar și cu sprijinul Molly Rose Foundation, 30 dintre 47 de instrumente analizate s-au dovedit „substanțial ineficiente sau inexistente”. Alte nouă au redus parțial expunerea, dar cu limite evidente, iar doar opt ar fi funcționat conform așteptărilor.
Echipa a creat conturi false de adolescenți și a documentat interacțiunile, inclusiv prin înregistrări de ecran. Potrivit concluziilor, utilizatorilor minori li s-au afișat postări care încalcă regulile platformei privind conținutul pentru tineri: descrieri de acte sexuale degradante, sugestii de căutare autocompletate pentru termeni legați de sinucidere, auto-vătămare sau tulburări alimentare.
În plus, algoritmul ar fi încurajat copii aparent sub 13 ani să posteze materiale care au atras comentarii sexualizate din partea adulților, iar adolescenților li s-ar fi recomandat conturi de adulți de urmărit ori li s-a permis trimiterea de mesaje ofensatoare între ei.
Organizațiile implicate argumentează că aceste deficiențe indică un accent prioritar pe engagement, în detrimentul siguranței. Molly Rose Foundation — creată după moartea lui Molly Russell, în 2017, caz în care medicul legist a invocat efectele negative ale conținutului online — cere standarde mai clare și o aplicare riguroasă a regulilor.
Meta respinge ferm rezultatele și metodologia. Compania afirmă că raportează, în medie, mai puține afișări de conținut sensibil pentru conturile de adolescenți, mai puține contacte nedorite și utilizare redusă în timpul nopții. În replică, Meta susține că raportul interpretează greșit modul în care funcționează setările de conținut și instrumentele pentru părinți, inclusiv „Teen Accounts”, introduse pe Instagram în 2024 și extinse în 2025 la Facebook și Messenger. De asemenea, Meta precizează că unele funcții (precum „Take a Break”) au fost integrate în alte mecanisme, nu eliminate.
Contextul legislativ adaugă presiune. În Marea Britanie, Online Safety Act impune platformelor să reducă expunerea minorilor la conținut dăunător, inclusiv materiale care promovează auto-vătămarea sau sinuciderea. Un purtător de cuvânt al guvernului britanic a subliniat că marile companii tech „nu mai pot întoarce privirea”, iar nerespectarea cerințelor poate atrage sancțiuni.
Rămân diferențe semnificative între evaluarea independentă și poziția companiei. Studiul indică o eficiență scăzută a majorității instrumentelor testate și riscuri reale pentru tineri, în timp ce Meta invocă date interne care arată trenduri pozitive.
Până la clarificarea disputelor metodologice, tema siguranței minorilor pe platformele sociale rămâne una critică, cu implicații directe pentru modul în care sunt concepute și auditate mecanismele de protecție, transparența recomandărilor algoritmice și responsabilitatea moderării conținutului.