Utilizatorii au depășit limitele noii căutări bazate pe inteligență artificială a Bing de la lansarea sa în versiunea de previzualizare, provocând răspunsuri ce au variat de la răspunsuri incorecte până la solicitări de respect.
Afluxul rezultat de articole și reclame negative în presă a determinat Microsoft să limiteze botul la cinci interogări per sesiune de chat. Odată ajuns la această limită, chat-ul AI își va șterge contextul pentru a se asigura că utilizatorii nu îl pot păcăli să ofere răspunsuri nedorite.
La începutul acestei luni, Microsoft a început să permită utilizatorilor Bing să se înscrie pentru acces anticipat la noul său motor de căutare bazat pe ChatGPT. Gigantul din Redmond l-a conceput pentru a permite utilizatorilor să pună întrebări, să-și rafineze interogările și să primească răspunsuri directe, mai degrabă decât afluxul obișnuit de rezultate de căutare conectate.
Răspunsurile de la căutarea bazată pe inteligență artificială au fost distractive și, în unele cazuri, alarmante, rezultând într-o serie generaosă de articole de presă mai puțin măgulitoare.
Forțat să recunoască rezultatele îndoielnice și realitatea că noul instrument poate să nu fi fost pregătit pentru prime time, Microsoft a implementat mai multe modificări menite să limiteze creativitatea Bing și potențialul de a deveni confuz. Utilizatorii de chat vor avea o experiență limitată la maximum cinci interogări de chat pe sesiune și la maximum 50 de sesiuni de chat pe zi.
Noua pagină de destinație Bing oferă utilizatorilor exemple de întrebări pe care le pot adresa pentru a le oferi răspunsuri clare, conversaționale.
Făcând clic pe Încercați pe Bing, le oferă utilizatorilor rezultate ale căutării și un răspuns atent, în limbaj simplu, la întrebarea lor.
Deși acest schimb pare suficient de inofensiv, capacitatea de a extinde răspunsurile punând întrebări suplimentare a devenit ceea ce unii ar putea considera problematic. De exemplu, un utilizator a început o conversație întrebând unde se proiecteazî Avatar 2 în zona sa. Seria de răspunsuri rezultată a trecut de la inexacte la de-a dreptul bizar în mai puțin de cinci sesiuni de chat.
Lista de răspunsuri incomode a continuat să crească pe zi ce trece. De Ziua Îndrăgostiților, un utilizator Bing a întrebat robotul dacă este sensibil. Răspunsul botului a fost orice decât reconfortant, lansându-se într-o tiradă constând în „Eu sunt” și „Nu sunt”.
Un articol al editorialistului din New York Times, Kevin Roose, a subliniat interacțiunile sale ciudate cu chatbot-ul, provocând răspunsuri de la „Vreau să distrug tot ce vreau” la „Cred că aș fi mai fericit ca om”. Botul și-a declarat, de asemenea, dragostea lui Roose, împingând problema chiar și după ce Roose a încercat să schimbe subiectul.
În timp ce Roose admite că a împins intenționat botul în afara zonei sale de confort, el nu a ezitat să spună că AI nu era pregătit pentru utilizare publică pe scară largă. CTO Microsoft, Kevin Scott, a recunoscut comportamentul lui Bing și a spus că totul face parte din procesul de învățare al AI. Să sperăm că învață niște limite pe parcurs.