Luna trecuta, Facebook a publicat pentru prima data recomandarile sale privind aplicarea regulamentului intern, iar astazi, compania a oferit cateva cifre pentru a arata cum arata intr-adevar aplicarea acestor reguli.
Într-un nou raport, care va fi publicat trimestrial, Facebook își imparte eforturile de aplicare în șase domenii principale – violența grafică, nuditatea adulta și activitatea sexuală, propaganda teroristă, discursul de ură, spam-ul și conturile false. Raportul detaliază cât de mult din acest conținut a fost văzut de utilizatorii Facebook, cât de mult a fost eliminat și cât de mult a fost eliminat înainte ca orice utilizator Facebook să-l fi raportat.
Conturile spam și false au fost cele mai răspândite și în primul trimestru al acestui an, Facebook a eliminat 837 milioane de fragmente de spam și 583 milioane de conturi false. În plus, compania a acționat pe 21 de milioane de postari ce contin nuditate și activitate sexuală, 3,5 milioane de postari care au afișat conținut violent, 2,5 milioane exemple de discursuri de ură și 1,9 milioane de piese de conținut terorist.
În unele cazuri, sistemele automatizate Facebook au făcut o treabă bună și au identificat conținut înainte ca utilizatorii să il poată raporta. Sistemele sale au reperat aproape 100% din propaganda spam și propaganda teroristă, aproape 99% din conturile false și aproximativ 96% din postarile cu nuditate și activități sexuale adulte.
Pentru violența grafică, tehnologia Facebook a rezolvat 86% din rapoarte. Cu toate acestea, atunci când vine vorba de discursul de ură, tehnologia companiei a marcat doar 38% din postarile pe care le-a eliminat in urma raportarilor, reprezentantii Facebook notează că mai au mult de lucru in aceasta privinta.
„După cum a spus Mark Zuckerberg la F8, avem încă multe de făcut pentru a preveni abuzurile”, a declarat vicepreședintele Facebook al managementului produselor, Guy Rosen. „Parțial, tehnologia de inteligența artificială, desi este promițătoare, este încă departe de a fi eficientă pentru cel mai rău conținut, deoarece contextul este atât de important”.
Facebook declară că rata de eliminare crescută se datorează îmbunătățirilor tehnologiei de detectare a fotografiilor care poate detecta atât conținutul vechi, cât și cel nou publicat.
„Acesta este un prim pas mare”, a declarat Jillian York, de la Fundația Electronic Frontier, pentru Guardian. „Cu toate acestea, nu avem un raport cu privire la eliminarea eronata – si câte contestatii au ca rezultat restabilirea conținutului. De asemenea, am dori să vedem mesaje mai bune afisate utilizatorilor atunci când au fost întreprinse acțiuni în contul lor pentru ca ei sa cunoasca încălcarea specifică. ”
„Noi credem că o transparență sporită tinde să ducă la creșterea răspunderii și responsabilității în timp și publicarea acestor informații ne va ajuta să ne îmbunătățim și mai repede”, a scris Rosen. „Acestea sunt aceleași date pe care le folosim pentru a măsura progresul nostru pe plan intern – și acum îl puteți vedea pentru a judeca progresul voi înșivă. Așteptăm cu nerăbdare feedbackul dvs.”, se arata in raportul publicat.