Google a publicat un răspuns detaliat despre „Prezentările AI” și acuratețea acestora. Funcția de căutare lansată la I/O 2024 în SUA a fost criticată pentru unele erori de profil înalt.
Google începe prin a explica modul în care funcționează Prezentările AI, inclusiv cum acestea „funcționează foarte diferit de chatbots și alte produse bazate pe modele de limbaj mari (LLM).”
Acestea nu generează pur și simplu un rezultat bazat pe datele de antrenament. Deși Prezentările AI sunt alimentate de un model de limbaj personalizat, modelul este integrat cu sistemele noastre principale de clasificare a paginilor web și este conceput pentru a efectua sarcini tradiționale de „căutare”, cum ar fi identificarea rezultatelor relevante și de înaltă calitate din indexul nostru. De aceea, Prezentările AI nu furnizează doar text, ci includ linkuri relevante pentru ca utilizatorii să poată explora mai departe.
Prezentările AI sunt „susținute de cele mai bune rezultate web”, Google încercând să le diferențieze de problema mai largă a „halucinațiilor” LLM, pe care unii le consideră nepotrivite pentru căutare.
Aceasta înseamnă că Prezentările AI, în general, nu „halucinează” sau nu inventează lucruri așa cum o fac alte produse LLM.
În schimb, atunci când Prezentările AI greșesc, Google spune că problemele comune sunt „interpretarea greșită a interogărilor, interpretarea greșită a unei nuanțe de limbaj pe web sau lipsa unei cantități mari de informații de calitate.”
Google a subliniat câteva dintre cazurile virale. În cazul „Câte pietre ar trebui să mănânc,” Google recunoaște că nu gestionează bine conținutul satiric. De asemenea, subliniază faptul că articolul din The Onion a fost „republicat pe site-ul unui furnizor de software geologic.”
Astfel, când cineva a pus acea întrebare în Căutare, a apărut o Prezentare AI care a legat fidel unul dintre puținele site-uri care tratau acea întrebare.
Un alt caz evidențiat de Google a fost „folosirea adezivului pentru a face brânza să se lipească de pizza” și supraevaluarea forumurilor (în acel caz, Reddit) ca sursă de cunoștințe de primă mână fiabile.
În final:
Într-un număr mic de cazuri, am observat că Prezentările AI interpretează greșit limbajul de pe paginile web și prezintă informații inexacte. Am acționat rapid pentru a rezolva aceste probleme, fie prin îmbunătățiri ale algoritmilor noștri, fie prin procesele stabilite pentru a elimina răspunsurile care nu respectă politicile noastre.
În ceea ce privește pașii următori, Google a „limitat includerea conținutului satiric și de umor” ca parte a „mecanismelor mai bune de detectare a interogărilor nonsens.” În plus:
„Am actualizat sistemele noastre pentru a limita utilizarea conținutului generat de utilizatori în răspunsurile care ar putea oferi sfaturi înșelătoare.”
„Am adăugat restricții de declanșare pentru interogările în care Prezentările AI nu se dovedeau a fi de ajutor.”
„Pentru subiecte precum știrile și sănătatea, avem deja măsuri de protecție puternice. De exemplu, vizăm să nu afișăm Prezentări AI pentru subiecte de știri importante, unde prospețimea și factualitatea sunt esențiale. În cazul sănătății, am lansat rafinamente suplimentare de declanșare pentru a îmbunătăți protecțiile noastre de calitate.”
Compania a afirmat anterior că „marea majoritate a Prezentărilor AI oferă informații de înaltă calitate.” Citând propriile teste, Google afirmă că rata de acuratețe a Prezentărilor AI și a fragmentelor recomandate bazate pe citate este „pe picior de egalitate.” Cu toate acestea, din păcate, nu a oferit date pentru a susține această afirmație.