Videoclipurile extremiste dispar de pe YouTube într-un ritm mult mai rapid cu ajutorul algoritmilor computerizati.
Luni, platforma deținută de Google a publicat detalii despre eforturile sale de a combate videoclipurile nedorite utilizand algoritmi bazati pe machine learning si AI.
Astfel, de la sfârșitul lunii octombrie si până în decembrie, sistemele de învățare automată oferite de YouTube au ajutat la ștergerea a 6,7 milioane de videoclipuri ce contineau imagini sexuale, spam sau conținut terorist. Majoritatea videoclipurilor au fost eliminate de pe platforma înainte ca acestea sa fie vizionate de cineva.
Pe de altă parte, algoritmii automati nu au reușit să împiedice ca videoclipurile rămase pe platforma să obtina rapid vizualizari. Dar într-o post de pe blog, YouTube a declarat că platforma a fost inițial mai lentă atunci când s-a pus in discutie eliminarea clipurilor video extremiste.
De exemplu, la începutul anului 2017, 8% din videoclipurile marcate și eliminate pentru extremism violent au fost eliminate avand mai puțin de 10 vizualizari.
Cu toate acestea, în luna iunie, serviciul de streaming video a început să utilizeze sistemul său de învățare a mașinilor. „Acum, mai mult de jumătate din videoclipurile pe care le eliminăm pentru extremismul violent au mai puțin de 10 vizualizari”, se arata in articolul publicat pe blogul Google.
Întrebarea mai importanta este dacă sistemele alimentate de AI se pot îmbunătăți în timp. Datele proprii ale YouTube ar putea oferi un răspuns. Compania intenționează să publice un raport trimestrial privind eliminarile videoclipurilor.
„Avansurile noastre in domeniul machine learning ne-au permis să eliminam aproape 70% din conținutul extremismului violent în termen de 8 ore de la încărcare și aproape jumătate din acesta în 2 ore”, se arată în raportul trimestrial.
Din păcate, YouTube nu oferă date istorice. Ultimul raport acoperă doar perioada octombrie-decembrie, când a eliminat un total de 8,2 milioane de videoclipuri, majoritatea provenind de la sistemul său de semnalizare automată.
Cu toate acestea, algoritmii computerizati ai YouTube nu șterg niciun videoclip pe cont propriu. Un om va examina un clip marcat pentru a confirma că acesta încalcă politicile platformei. Compania intenționează să angajeze 10.000 de persoane în acest an pentru a ajuta la vizionarea conținutului.
YouTube se bazează pe învățarea mașinilor, dat fiind faptul că serviciul de streaming se confruntă cu o critici privind moderărea conținutului. Platforma se luptă de mult timp cu conținutul terorist urcat pe platforma. Dar alți critici au subliniat faptul că nașterea dezinformării pe YouTube este o altă tendință tulburătoare.
De exemplu, în februarie, un film de conspirație fals despre filmările din liceul Parkland, Florida, a reușit să devina popular pe YouTube, înainte ca acesta să fie eliminat.
Indiferent dacă algoritmii computerizati pot fi eficienți în zonele sensibile ale moderării conținutului, acest lucru este decis de companie. Dar deocamdată, YouTube a declarat că sistemul său de învățare automat se axează pe marcarea celor mai grave clipuri video, cum ar fi cele care incita la violența sau conțin abuzuri asupra copiilor.