ChatGPT, platforma chatbot dezvoltată de OpenAI, s-ar putea să nu fie la fel de mare consumatoare de energie cum se presupunea inițial. Un nou studiu realizat de Epoch AI, un institut de cercetare nonprofit, sugerează că consumul de energie al ChatGPT variază în funcție de modul în care este utilizat și de modelul AI care răspunde la întrebări.
ChatGPT consumă de 10 ori mai puțin decât se credea
O estimare frecvent citată sugerează că un singur răspuns al ChatGPT necesită aproximativ 3 watt-oră, adică de 10 ori mai mult decât o căutare pe Google. Epoch AI consideră că această cifră este o supraestimare.
Folosind cel mai recent model al OpenAI, GPT-4o, cercetătorii de la Epoch AI au descoperit că o interogare tipică ChatGPT consumă doar 0.3 watt-oră, ceea ce este mai puțin decât consumul multor electrocasnice de uz casnic.
„Consumul de energie nu este o problemă atât de mare în comparație cu utilizarea electrocasnicelor obișnuite, a sistemelor de încălzire sau răcire ale casei, sau a condusului unei mașini”, a declarat Joshua You, analist de date la Epoch AI, pentru TechCrunch.
Inteligența artificială și impactul asupra mediului
În timp ce companiile de AI își extind rapid infrastructura, consumul de energie al AI-ului devine un subiect tot mai dezbătut. Săptămâna trecută, peste 100 de organizații au semnat o scrisoare deschisă solicitând ca centrele de date AI să nu epuizeze resursele naturale și să nu oblige utilitățile să se bazeze pe surse de energie neregenerabilă.
Analiza realizată de Epoch AI a fost determinată de ceea ce Joshua You consideră cercetări învechite. De exemplu, estimarea de 3 watt-oră s-a bazat pe presupunerea că OpenAI folosește cipuri mai vechi și mai puțin eficiente pentru rularea modelelor AI.
„Am observat multe discuții publice despre faptul că AI-ul va consuma multă energie în viitor, dar majoritatea estimărilor actuale sunt inexacte,” a explicat You.
Eficiența modelelor AI și consumul viitor de energie
Totuși, cifrele prezentate de Epoch AI sunt aproximative, deoarece OpenAI nu a publicat detalii specifice despre consumul exact de energie al modelelor sale. De asemenea, studiul nu ia în considerare consumul suplimentar generat de funcții avansate ale ChatGPT, cum ar fi generarea de imagini sau procesarea fișierelor lungi.
You recunoaște că interogările complexe consumă mai multă energie decât întrebările simple. Mai mult, el estimează că pe termen lung, consumul AI va crește, odată cu dezvoltarea noilor modele de raționament.
„AI-ul viitor va fi mai avansat, antrenarea acestuia va necesita mult mai multă energie, iar utilizarea sa va crește exponențial,” a precizat You.
Un raport realizat de Rand Corporation estimează că, în următorii doi ani, centrele de date AI ar putea necesita aproape întreaga capacitate energetică a Californiei din 2022 (68 GW). Până în 2030, antrenarea unui model avansat de AI ar putea consuma echivalentul energiei produse de opt reactoare nucleare (8 GW).
Modelele de raționament și consumul uriaș de energie
OpenAI și alte companii AI își îndreaptă atenția spre dezvoltarea modelelor de raționament, care sunt mai capabile, dar necesită mai multă putere de calcul. Spre deosebire de modelele precum GPT-4o, care oferă răspunsuri aproape instantaneu, modelele de raționament „gândesc” timp de câteva secunde sau minute înainte de a răspunde, ceea ce necesită mai multă energie.
„Modelele de raționament vor prelua tot mai multe sarcini, iar acest lucru va necesita o extindere masivă a centrelor de date,” a spus You.
OpenAI a lansat deja modele mai eficiente din punct de vedere energetic, cum ar fi GPT-4o-mini, dar nu este clar dacă aceste îmbunătățiri vor putea compensa cererea crescută de AI-uri mai inteligente și utilizarea lor extinsă la nivel global.
Cum să reducem consumul de energie al AI?
Joshua You sugerează câteva metode prin care utilizatorii pot minimiza amprenta energetică atunci când folosesc AI:
✔ Utilizarea mai rară a aplicațiilor AI precum ChatGPT
✔ Optarea pentru modele AI mai mici, cum ar fi GPT-4o-mini
✔ Evitarea generării de conținut complex, care necesită multă putere de calcul
Chiar dacă eficiența AI-ului se îmbunătățește, implementarea sa la scară largă rămâne o provocare majoră pentru consumul de energie.