Un clic, una domanda a un chatbot, una richiesta a un sistema come Gemini o ChatGPT. Azioni che per l’utente appaiono leggere, quasi immateriali, ma che in realtà muovono quantità significative di energia e acqua. Google ha diffuso una stima: un singolo prompt testuale su Gemini consuma 0,24 wattora di elettricità, l’equivalente di meno di nove secondi di televisione accesa. A questo si aggiunge l’impatto idrico: circa 0,26 millilitri d’acqua — cinque gocce — per il raffreddamento dei server. OpenAI aveva fornito a giugno un dato analogo: 0,34 Wh per query di ChatGPT, paragonabile a un secondo di forno elettrico acceso.
Si tratta di valori minimi se presi singolarmente. Ma assumono un altro peso quando moltiplicati per miliardi di richieste quotidiane. È qui che l’industria si trova sotto pressione: sostenere la crescita dell’Ai senza spingere ancora più in alto la domanda globale di energia e l’impatto sulle risorse idriche.
Consumi invisibili ma in crescita
Il consumo per query — 0,24 Wh per Gemini, 0,34 Wh per ChatGPT — può sembrare trascurabile. Un frigorifero ne assorbe decine di migliaia in un anno, un singolo viaggio in aereo centinaia di migliaia. Ma ciò che conta è la scala. Ogni giorno miliardi di interazioni vengono elaborate da sistemi generativi, non solo nei chatbot ma anche in applicazioni integrate: motori di ricerca, piattaforme cloud, strumenti di produttività.
Proiezioni indipendenti indicano che la crescita dell’Ai potrebbe far salire il consumo globale dei data center a livelli mai toccati prima, mettendo sotto pressione reti elettriche nazionali. Non a caso, giganti come Microsoft e Amazon hanno ammesso che la domanda di calcolo sta accelerando molto più del previsto rispetto a due anni fa.
Un punto chiave riguarda la distinzione tra inferenza e addestramento. I dati pubblicati da Google e OpenAI si riferiscono al consumo medio per una singola query — la fase in cui il modello è già addestrato. Non includono invece l’impatto dell’addestramento iniziale, che richiede settimane o mesi di calcolo intensivo su cluster di GPU. In questi casi i consumi non si misurano in milliwattora, ma in megawattora, con emissioni comparabili a quelle di interi quartieri urbani per periodi prolungati.
Energia e acqua come nuovo nodo critico
L’espansione dei poli server ha conseguenze dirette sulle infrastrutture locali. Nei Paesi che ospitano data center di nuova generazione — dagli hub in Texas ai campus tecnologici in Irlanda e Scandinavia — le utility segnalano la necessità di rafforzare reti e centrali per reggere la domanda. La questione ha già aperto tavoli di discussione politica e regolatoria su chi debba sostenere i costi della trasformazione.
Accanto all’elettricità, c’è poi l’impatto idrico. Google ha quantificato in cinque gocce d’acqua il fabbisogno medio per prompt su Gemini, ma il numero cresce rapidamente su scala planetaria. Alcuni complessi negli Stati Uniti centrali e occidentali hanno raggiunto consumi tali da sollevare proteste delle comunità locali, già alle prese con siccità ricorrenti.
Meta è tra le poche aziende ad aver adottato un piano esplicito di water stewardship, con l’obiettivo di diventare “water positive” entro il 2030 e progetti di ripristino idrico nelle aree più stressate. Microsoft, in Texas, ha avviato sistemi di raffreddamento a circuito chiuso con zero consumo di acqua in alcuni data center. Tuttavia, esperti ambientali avvertono che, al netto degli sforzi, il fabbisogno diretto resta in crescita e può entrare in conflitto con priorità agricole o civili.
Efficienza tecnologica e il paradosso della domanda
I colossi del cloud sottolineano i progressi ottenuti. Metriche come il Pue (Power Usage Effectiveness) sono migliorate: una quota crescente di energia nei data center viene effettivamente destinata all’elaborazione, riducendo le dispersioni. Allo stesso tempo, chip specializzati per l’Ai promettono di ridurre ulteriormente il consumo per operazione.
Ciononostante, la dinamica è contraddittoria. L’efficienza migliora, ma la domanda cresce ancora più rapidamente. L’adozione dell’Ai corre in modo esponenziale, spinta dall’integrazione nei servizi enterprise, nella sanità, nella finanza e nelle amministrazioni pubbliche. È l’effetto rimbalzo: riduzioni dei costi unitari stimolano nuovi utilizzi, che finiscono per annullare i benefici iniziali.
È plausibile che i consumi per singolo prompt scendano sotto gli attuali 0,24 o 0,34 Wh. Ma il numero di prompt inviati quotidianamente potrebbe moltiplicarsi di dieci o venti volte nei prossimi anni. Per governi e autorità regolatorie, la questione non è tanto l’impatto della singola query, quanto la sostenibilità di un modello di sviluppo che rischia di aumentare significativamente la pressione su reti elettriche e risorse idriche.