În ciuda entuziasmului din jurul ChatGPT și a chatbot-urilor similare bazate pe inteligență artificială, instrumentele bazate pe text au încă câteva probleme serioase care trebuie rezolvate.
Printre acestea se numără tendința lor de a inventa lucruri și de a le prezenta ca fapte atunci când nu cunoaște răspunsul la o întrebare, un fenomen care a ajuns să fie cunoscut sub numele de „halucinație”. După cum vă puteți imagina, prezentarea falsurilor ca fapte cuiva care folosește unul dintre instrumentele noului val de chatbot puternici ar putea avea consecințe grave.
O astfel de problemă a fost evidențiată într-un incident recent în care un avocat experimentat din New York City a citat cazuri – sugerate de ChatGPT – care s-au dovedit a nu fi avut loc niciodată. Avocatul se poate confrunta cu sancțiuni ca urmare a acțiunii sale.
Un alt incident a primit o atenție larg răspândită în aprilie, când se pare că ChatGPT a rescris istoria spunând că un primar australian a fost închis pentru luare de mită în timp ce lucra pentru o bancă, când de fapt el a fost avertizor în acest caz.
Pentru a face tehnologia chatbot mai fiabilă, inginerii OpenAI au dezvăluit că în prezent se concentrează pe îmbunătățirea software-ului său pentru a reduce și, sperăm, să elimine aceste apariții problematice.
Într-o lucrare de cercetare publicată miercuri și preluată de CNBC, OpenAI a spus că chatboții „demonstrează o tendință de a inventa fapte în momente de incertitudine”, adăugând: „Aceste halucinații sunt deosebit de problematice în domeniile care necesită raționament în mai mulți pași, deoarece o singură eroare pentru un raționament logic este suficientă pentru a deraia o soluție mult mai mare.”
Pentru a aborda pașii greșiți ai chatbot-ului, inginerii OpenAI lucrează la modalități prin care modelele sale AI să se răsplătească pentru furnizarea de date corecte atunci când se îndreaptă către un răspuns, în loc să se răsplătească doar la punctul final. Potrivit inginerilor, sistemul ar putea duce la rezultate mai bune, deoarece încorporează mai mult o procedură de lanț de gândire asemănătoare omului.
Dar unii experți și-au exprimat îndoielile cu privire la această activitate, spunând că este de puțin folos până când nu este încorporat în ChatGPT, care între timp va continua să aibă halucinații. OpenAI nu a spus dacă și când și-ar putea încorpora munca în instrumentele sale AI generative.
Deși este bine de știut că OpenAI lucrează la rezolvarea problemei, ar putea trece ceva timp până să vedem îmbunătățiri. Între timp, așa cum spune OpenAI, ChatGPT poate genera ocazional informații incorecte, așa că asigurați-vă că îi confirmați răspunsurile dacă fac parte din sarcini importante.