Snapchat lansează noi instrumente, inclusiv un filtru de vârstă și informații pentru părinți, pentru a-și îmbunătăți chatbot-ul AI.
La câteva zile după ce Snapchat și-a lansat chatbot-ul bazat pe GPT pentru abonații Snapchat+, un raport Washington Post a evidențiat că botul a răspuns într-un mod nesigur și nepotrivit.
Snap a spus că a aflat că oamenii încearcă să „păcălească chatbot-ul pentru a oferi răspunsuri care nu sunt conforme cu ghidurile companiei”, iar noile instrumente sunt menite să țină sub control răspunsurile AI.
Noul filtru de vârstă îi spune chatbot-ului datele de naștere ale utilizatorilor săi și se asigură că răspunde în funcție de vârsta lor, a spus compania.
În săptămânile următoare, Snap intenționează, de asemenea, să ofere părinților sau tutorilor mai multe informații despre interacțiunile copiilor cu chatbot-ul din Centrul său pentru familie, lansat în august anul trecut. Noua funcție le va spune părinților sau tutorilor cum comunică copiii lor cu chatbot-ul și frecvența acelor interacțiuni. Atât tutorele, cât și adolescenții trebuie să se înscrie pentru utilizarea Family Center pentru a utiliza aceste funcții de control parental.
Într-o postare pe blog, Snap a explicat că chatbot-ul My AI nu este un „prieten adevărat” și a explicat că se bazează pe istoricul conversațiilor pentru a-și îmbunătăți răspunsurile.
Compania a spus că botul a dat doar 0,01% din răspunsuri în limbaj „neconform”. Snap numără orice răspuns care include referiri la violență, termeni expliciți din punct de vedere sexual, consumul ilicit de droguri, abuz sexual asupra copiilor, hărțuirea, discursul instigator la ură, declarații derogatorii sau părtinitoare, rasism, misoginie sau marginalizarea grupurilor subreprezentate drept „neconform”.
Compania a spus că, în cele mai multe cazuri, răspunsurile neadecvate au fost rezultatele a faptului că botul a repetat ca un papagal orice au spus utilizatorii. De asemenea, a mai spus că firma va bloca temporar accesul botului AI pentru utilizatorii care folosesc greșit serviciul.
„Vom continua să folosim aceste învățăminte pentru a îmbunătăți My AI. Aceste date ne vor ajuta, de asemenea, să implementăm un nou sistem pentru a limita utilizarea greșită a My AI. Adăugăm tehnologia de moderare a OpenAI la setul nostru de instrumente existent, ceea ce ne va permite să evaluăm gravitatea conținutului potențial dăunător și să restricționăm temporar accesul Snapchatters la My AI dacă folosesc greșit serviciul”, a spus Snap.
Snap este încă destul de optimist în ceea ce privește instrumentele AI generative. În afară de chatbot, compania a introdus acum câteva săptămâni un generator de fundal alimentat de AI care funcționează prin solicitări pentru abonații Snapchat+.

Având în vedere proliferarea instrumentelor bazate pe inteligență artificială, mulți oameni sunt îngrijorați de siguranța și confidențialitatea lor. Săptămâna trecută, un grup de etică numit Centrul pentru Inteligență Artificială și Politică Digitală a scris Comisiei Federale de Comerț din SUA, îndemnând agenția să întrerupă lansarea modelului OpenAI GPT-4, spunând că tehnologia este „părtinitoare, înșelătoare și un risc pentru confidențialitate și siguranță publică.”
Luna trecută, senatorul american Michael Bennet (democrat din Colorado) a scris și o scrisoare către OpenAI, Meta, Google, Microsoft și Snap, în care își exprimă îngrijorarea cu privire la instrumentele AI generative utilizate de adolescenți.
Este evident că aceste modele AI sunt susceptibile la intrări dăunătoare și pot fi manipulate pentru a genera răspunsuri neadecvate. Deși companiile de tehnologie ar putea dori să lanseze aceste instrumente rapid, vor trebui să se asigure că există suficiente instrumente pentru a preveni utilizarea lor greșită.