Confronto tra Google Gemini e ChatGPT – Secondo Google Gemini riduce energia, emissioni e consumo d’acqua. Una nuova metodologia per misurare l’impatto delle richieste AI e favorire un’innovazione sostenibile. E gli altri?
Sta facendo discutere uno studio pubblicato da Google sui suoi consumi relativamente a Gemini AI. L’articolo vanta grandi progressi nel rispetto per l’ambiente. Ma… c’è un ma…
L’urgenza di misurare l’impatto ambientale dell’AI
L’intelligenza artificiale sta rivoluzionando scienza, sanità, istruzione ed economia, con un potenziale stimato in trilioni di dollari. Tuttavia, l’attenzione crescente si sposta anche sul suo impatto ambientale. Finora, i dati sull’energia e sulle emissioni legate all’AI inference – cioè l’uso di modelli addestrati per generare testi, immagini o previsioni – erano frammentari e incompleti.
Per colmare questa lacuna, Google ha pubblicato un documento tecnico che introduce una metodologia di calcolo completa, capace di misurare energia, emissioni e consumo d’acqua dei prompt AI.
I numeri di Gemini: un prompt consuma meno di 9 secondi di TV
Secondo le stime, un prompt medio su Gemini Apps consuma 0,24 Wh, produce 0,03 g di CO₂ equivalente e utilizza 0,26 ml di acqua.
In pratica, l’impatto è paragonabile a guardare la TV per meno di 9 secondi.
Rispetto a un anno fa, il miglioramento è sorprendente: l’energia necessaria si è ridotta di 33 volte, mentre l’impronta di carbonio è scesa di 44 volte, senza sacrificare la qualità delle risposte.
Perché il metodo di Google è diverso
Molti calcoli diffusi sul consumo energetico dell’AI considerano solo la fase attiva di calcolo sui GPU o TPU, trascurando:
- macchine inattive ma pronte a gestire picchi di traffico,
- l’uso di CPU e RAM,
- i consumi di raffreddamento e infrastruttura dei data center,
- il consumo d’acqua per mantenere le macchine a temperatura.
Senza questi fattori, le stime risultano ottimistiche e lontane dalla realtà operativa. La metodologia di Google, invece, integra tutti questi elementi, fornendo un quadro completo e affidabile.
L’approccio full-stack: hardware, software e data center
L’efficienza di Gemini nasce dall’integrazione di innovazioni su tutti i livelli:
- Architettura dei modelli: utilizzo di Transformer e strutture come il Mixture-of-Experts (MoE), che attivano solo parti necessarie del modello.
- Algoritmi efficienti: tecniche come l’Accurate Quantized Training (AQT) riducono i calcoli senza perdita di qualità.
- Inference ottimizzata: con il speculative decoding e la distillazione, modelli più piccoli possono fornire risposte rapide ed efficienti.
- Hardware personalizzato: i TPU Ironwood consumano 30 volte meno energia rispetto alla prima generazione.
- Data center sostenibili: Google raggiunge un PUE medio di 1,09, integra energia rinnovabile e punta al 24/7 carbon-free.
Il confronto con ChatGPT e altri modelli
- Una stima suggerisce che ogni query su ChatGPT emetta circa 4,3 grammi di CO₂. The Wall Street Journal+4smartly.ai+4Plan Be Eco+4
- In termini energetici, un’analisi aggiornata stima che una singola query con GPT‑4o consumi circa 0,3 Wh, molto più efficiente di stime precedenti (circa 3 Wh). Epoch AI
Quindi, mentre Gemini utilizza circa 0,24 Wh, ChatGPT si aggira intorno a 0,3 Wh per query: sono numeri simili, ma le differenze di metodologia e infrastruttura possono variare il confronto.
Green deal e politiche ambientali, davvero per l’ambiente?
Il vero nocciolo della questione non è tanto quanto consuma l’AI, quanto la crescità del consumo energetico generato dal web in generale, che spiega gran parte delle politiche “green”.
Sospetto: tante strategie ambientali – compresi i “green deal” – non servono tanto a salvare il pianeta, quanto a trasformare le fonti inquinanti in altre più compatibili con lo sviluppo tecnologico e il controllo sociale.
In altre parole, la narrativa ambientale può diventare uno strumento per consolidare infrastrutture digitali, piuttosto che una vera redistribuzione ecologica.
Domande e risposte
Secondo il metodo completo pubblicato da Google, il prompt medio su Gemini Apps consuma circa 0,24 Wh, con circa 0,03 gCO2e e 0,26 ml di acqua.
Le stime pubbliche variano in base a modello, data center e metodologia. Analisi recenti indicano ordini di grandezza simili a pochi decimi di Wh per prompt; confronti puntuali vanno letti con cautela per le differenze infrastrutturali
Perché include non solo GPU/TPU in attività, ma anche macchine inattive, CPU, RAM, raffreddamento e consumo d’acqua, fornendo un quadro più realistico.
È l’uso di un modello già addestrato per generare testo, immagini o previsioni. Ogni richiesta richiede energia e può produrre emissioni e consumo idrico.
Il Power Usage Effectiveness (PUE) misura l’efficienza dei data center: un PUE di 1,09 (come quello medio di Google) indica infrastrutture tra le più efficienti al mondo.
Sono modelli che attivano solo le parti necessarie per rispondere a un prompt, riducendo il numero di calcoli e il consumo energetico.
È una tecnica in cui un modello piccolo fa previsioni che vengono validate da un modello più grande, riducendo i calcoli complessivi.
Perché molti data center usano sistemi di raffreddamento ad acqua. Migliorare l’efficienza energetica riduce anche l’acqua necessaria per mantenere i server attivi.
Sì: anche se i modelli diventano più efficienti, la crescita della domanda può aumentare i consumi complessivi.
C’è chi sospetta che parte della spinta “green” serva a favorire il passaggio energetico utile allo sviluppo tecnologico e al controllo delle infrastrutture digitali, oltre che all’ambiente.
Donato Paolino
Ciao, sono Donato Paolino. Benvenuto nel mio Blog. Sono laureato in Giurisprudenza e mi occupo di consulenza in Digital Marketing.
Le mie passioni sono la musica e la scrittura.
In questo mio blog voglio semplicemente scrivere pensieri, esperienze personali e consigli che possano essere utili per i miei lettori.
Se vuoi contattarmi scrivimi a mail@donatopaolino.com o aggiungimi sui social.