Jeff Dean, șeful științific de la Google: AI are nevoie de „descoperiri algoritmice” și nu este responsabilă pentru creșterea emisiilor centrelor de date
Google a stârnit îngrijorări în dezbaterea privind schimbările climatice luna aceasta, când a dezvăluit că emisiile din centrele sale de date au crescut cu 13% în 2023, citând „tranziția către AI” în raportul său anual de mediu. Cu toate acestea, Jeff Dean, șeful științific de la Google, susține că raportul nu spune întreaga poveste și dă mai multă vină AI-ului decât merită.
Dean, care este șeful științific atât la Google DeepMind cât și la Google Research, a declarat că Google nu renunță la angajamentul său de a fi alimentat 100% cu energie curată până la sfârșitul anului 2030. Totuși, el a menționat că acest progres „nu este neapărat liniar”, deoarece unele dintre proiectele Google cu furnizorii de energie curată nu vor fi funcționale decât peste câțiva ani.
„Aceste lucruri vor aduce salturi semnificative în procentajul de energie fără carbon, dar vrem să ne concentrăm și pe eficientizarea sistemelor noastre,” a declarat Dean la conferința Brainstorm Tech organizată de Fortune, într-un interviu pe scenă cu editorul AI de la Fortune, Jeremy Kahn.
Dean a subliniat că AI nu este atât de responsabilă pentru creșterea utilizării centrelor de date și, implicit, a emisiilor de carbon, pe cât susțin criticii.
„S-a pus mult accent pe creșterea consumului de energie al AI, și de la o bază foarte mică acel consum crește cu siguranță,” a spus Dean. „Dar cred că oamenii confundă adesea asta cu utilizarea generală a centrelor de date — din care AI este o parte foarte mică acum, dar care crește rapid — și apoi atribuie rata de creștere a AI întregii utilizări a centrelor de date.”
Dean a spus că este important să examinăm „toate datele” și „tendințele reale care stau la baza acestora,” deși nu a detaliat care sunt acele tendințe.
Unul dintre primii angajați ai Google, Dean s-a alăturat companiei în 1999 și este creditat ca fiind unul dintre oamenii cheie care au transformat motorul de căutare inițial într-un sistem puternic capabil să indexeze internetul și să servească miliarde de utilizatori.
Dean a cofondat proiectul Google Brain în 2011, conducând eforturile companiei de a deveni lider în AI. Anul trecut, Alphabet a fuzionat Google Brain cu DeepMind, compania de AI achiziționată de Google în 2014, și l-a numit pe Dean șef științific raportând direct CEO-ului Sundar Pichai.
Prin combinarea celor două echipe, Dean a spus că compania are „un set mai bun de idei pe care să se bazeze” și poate „consolida resursele de calcul pentru a se concentra pe antrenarea unui singur efort la scară largă, cum ar fi Gemini, în loc de multiple eforturi fragmentate.”
Necesitatea descoperirilor algoritmice
Dean a răspuns și la o întrebare despre stadiul proiectului Google Astra — un proiect de cercetare pe care liderul DeepMind, Demis Hassabis, l-a dezvăluit în mai la conferința anuală a dezvoltatorilor Google I/O.
Descris de Hassabis ca un „agent AI universal” care poate înțelege contextul mediului utilizatorului, o demonstrație video a Astra a arătat cum utilizatorii ar putea să îndrepte camera telefonului către obiectele din apropiere și să întrebe AI-ul întrebări relevante precum „În ce cartier mă aflu?” sau „Ai văzut unde mi-am lăsat ochelarii?”
La acea vreme, compania a spus că tehnologia Astra va fi inclusă în aplicația Gemini mai târziu în acest an. Dar Dean a fost mai conservator: „Sperăm să avem ceva disponibil pentru utilizatorii de testare până la sfârșitul anului,” a spus el.
„Capacitatea de a combina modelele Gemini cu modele care au într-adevăr agenție și pot percepe lumea din jurul tău într-un mod multimodal va fi destul de puternică,” a spus Dean. „Evident, abordăm acest lucru responsabil, așa că vrem să ne asigurăm că tehnologia este pregătită și că nu are consecințe neprevăzute, motiv pentru care o vom lansa mai întâi unui set mai mic de utilizatori de test.”
În ceea ce privește evoluția continuă a modelelor AI, Dean a remarcat că datele suplimentare și puterea de calcul nu vor fi suficiente. „Câteva generații suplimentare de scalare ne vor duce mult mai departe,” a spus Dean, dar în cele din urmă va fi nevoie de „câteva descoperiri algoritmice suplimentare.”
Dean a spus că echipa sa se concentrează de mult timp pe modalitățile de a combina scalarea cu abordări algoritmice pentru a îmbunătăți factualitatea și capacitățile de raționament, astfel încât „modelul să poată imagina rezultate plauzibile și să raționeze care dintre ele are cel mai mult sens.”
Aceste tipuri de avansuri, a spus Dean, vor fi importante „pentru a face aceste modele cu adevărat robuste și mai fiabile decât sunt deja.”