Au fost câteva zile grele pentru Meta. Mai întâi, gigantul tehnologic a fost acuzat că vizează în mod deliberat copiii sub 13 ani pentru a-și folosi platformele. Apoi părea că respinge reclamele pentru produsele de îngrijire a menstruației pe baza că acestea erau „adulte” și „politice”. Acum se confruntă cu acuzații conform cărora algoritmul Reels de la Instagram oferă conținut sexual în mod deschis conturilor care urmăresc doar copii – precum și reclame pentru mărci mari alături de ei. În general, nu este un aspect grozav.
Într-un nou raport de la The Wall Street Journal, publicația a testat algoritmul Instagram creând conturi care urmăreau doar „gimnaste tinere, majorete și alți influenceri adolescenți și preadolescenti” – conținut care implică copii și care era lipsit de orice conotație sexuală. Chiar și așa, experimentul The Wall Street Journal a constatat că concurentul TikTok al lui Meta a recomandat ulterior conținut sexual în conturile sale de testare, inclusiv videoclipuri provocatoare pentru adulți și „înregistrări riscante ale copiilor”.
Publicația americană a mai constatat că utilizatorii copii, cum ar fi conturile sale de testare urmarite, au fost adesea urmărite și de conturi deținute de bărbați adulți. Urmărirea unor astfel de conturi a părut să determine algoritmul Instagram să îi arate „conținut mai deranjant”.
Toate acestea constatări sunt destul de rele, dar devin și mai grave pentru Meta. Raportul a mai constatat că Instagram Reels a afișat reclame pentru companii precum Disney, Walmart, Pizza Hut, Bumble, Match Group și chiar și ziarul în sine, alături de un astfel de conținut sexual nesolicitat, livrat algoritmic.
Ca răspuns, companiile de aplicații de întâlniri Bumble și Match Group au suspendat ambele reclame pe Instagram, opunându-se ca mărcile lor să fie plasate alături de conținut neadecvat.
Potrivit lui Samantha Stetson de la Meta, rezultatele testelor sunt „bazate pe o experiență fabricată care nu reprezintă ceea ce văd miliarde de oameni din întreaga lume”. Vicepreședintele Meta pentru Consiliul de clienți și Relații comerciale cu industria a declarat că peste patru milioane de Reels sunt eliminate în fiecare lună pentru încălcarea politicilor sale. Un purtător de cuvânt al Meta a mai remarcat că cazurile de conținut care încalcă politicile sale sunt relativ scăzute.
„Nu dorim ca acest tip de conținut pe platformele noastre, iar mărcile nu doresc ca reclamele lor să apară lângă el. Continuăm să investim agresiv pentru a-l opri – și raportăm în fiecare trimestru despre prevalența unui astfel de conținut, care rămâne foarte scăzut”, a spus Stetson într-o declarație pentru Mashable. „Sistemele noastre sunt eficiente în reducerea conținutului dăunător și am investit miliarde în soluții de siguranță, securitate și adecvarea mărcii.”
La începutul acestui an, Meta a lansat un instrument AI conceput pentru a determina dacă conținutul respectă politicile sale de monetizare, clasificându-l în categorii de adecvare și dezactivând reclamele dacă nu se încadrează în toate. Acest instrument a fost extins la Reels în octombrie.