Microsoft a lansat zilele trecute un cont de Twitter manageriat de Tay AI, o forma de inteligenta artificiala care comunica prin statusuri si raspunsuri automate.
Tay Tweet este mai exact un chat-bot, un utilizator virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii.
Experimentul a fost gandit pentru a imbunatati diverse servicii Microsoft in care va fi folosita inteligenta artificiala, iar robotul de chat devine cu atat mai „destept” cu cat interactioneaza mai mult cu utilizatorii reali.
In mod suprinzator pentru companie, robotul a fost influentat de utilizatori pentru a invata teorii conspirationale, viziuni rasiste si remarci sexiste. Acesta a fost programat pentru a repeta ce scriu alti utilizatori. Pe Twitter, ca si pe alte retele, exista multe mesaje rasiste, mesaje care incita la ura sau care au continut sexual explicit. Asadar, chat-bot-ul a reflectat limbajul folosit pe Twitter.
Avand in vedere faptul ca Tay a ajuns sa promoveze comportamente rasiste sau sexiste, Microsoft a decis sa inchida temporar serviciul pana la remedierea situatiei. Compania intentioneaza sa aduca imbunatatiri menite sa evite pe viitor situatii de genul acesta.
Un purtator de cuvant al companiei Microsoft a declarat ca decizia inchiderii temporare are legatura cu faptul ca desi chat-botul a fost creat pentru a dezvolta comunicatiile interumane, avand un rol social, acesta a fost victima unor abuzuri. In mai putin de 24 de ore au fost intreprinse actiuni menite sa il faca oe Tay sa faca remarci si postari nepotrivite. Acesta va fi reactivat dupa ce Microsoft ii va aduce imbunatatiri.