Entro il 2030, l’intelligenza artificiale avrà un impatto ambientale equivalente a quello di un parco macchine composto da 10 milioni di vetture. Lo rivela uno studio della Cornell University pubblicato su Nature Sustainability, che quantifica per la prima volta l’impatto ecologico della corsa all’Ai negli Stati Uniti.
Le proiezioni indicano emissioni comprese tra 24 e 44 milioni di tonnellate di CO₂ all’anno, accompagnate da un consumo idrico stimato tra 731 e 1.125 milioni di metri cubi. Cifre che costringono a ripensare il rapporto tra innovazione digitale e sostenibilità ambientale prima che sia troppo tardi.
L’appetito energetico dell’intelligenza artificiale
Ogni risposta generata da un’Ai richiede un’elaborazione computazionale che consuma dieci volte più elettricità di una ricerca tradizionale su Google. Questa differenza, apparentemente trascurabile per il singolo utente, si trasforma in un problema strutturale quando la si moltiplica per miliardi di interazioni quotidiane. Goldman Sachs prevede che la domanda globale di energia per i data center aumenterà del 165% entro il 2030 rispetto ai livelli del 2023. Nel 2024, queste infrastrutture hanno consumato circa 415 terawattora di elettricità a livello mondiale. In Europa, secondo le stime di McKinsey, il fabbisogno energetico dei data center passerà da 62 a 150 terawattora annui nello stesso periodo.
Acqua e algoritmi: la sete nascosta dei server
L’impatto idrico rappresenta forse l’aspetto meno conosciuto ma più preoccupante dell’espansione dell’Ai. I data center utilizzano enormi quantità d’acqua per raffreddare i server, che trasformano quasi tutta l’energia elettrica in calore. Meta, Amazon e le altre Big Tech hanno già presentato richieste di autorizzazione per prelevare milioni di litri d’acqua al giorno dalle falde acquifere locali. “Le aziende spesso pretendono quanta più acqua possibile usando le entrate fiscali che pagano come leva finanziaria”, spiega Newsha Ajami, idrologa e direttrice delle politiche idriche urbane a Stanford. In alcuni casi, la costruzione di nuovi data center richiede prima l’asciugatura del terreno mediante pompaggio delle falde acquifere dall’area circostante.
Geografia delle emissioni: l’Ai non inquina ovunque allo stesso modo
Lo studio della Cornell dimostra che la stessa elaborazione Ai può generare un impatto ambientale da due a cinque volte superiore a seconda della localizzazione del data center. La differenza dipende dal mix energetico della rete elettrica locale, dalle risorse idriche disponibili e dal clima. Lo stato di New York, ad esempio, presenta un profilo favorevole grazie al suo mix di nucleare, idroelettrico e rinnovabili, specialmente se abbinato a sistemi di raffreddamento efficienti. All’opposto, gli Stati che dipendono maggiormente dai combustibili fossili per la produzione elettrica registrano emissioni sensibilmente più elevate.
Le soluzioni tecniche per ridurre le emissioni fino all’86%
La ricerca individua tre strategie chiave per contenere l’impatto ambientale dei data center:
- Scelta strategica della localizzazione, privilegiando aree con reti elettriche a bassa intensità di carbonio e abbondanza di risorse idriche;
- Decarbonizzazione delle reti elettriche, anche se questo intervento da solo ridurrebbe le emissioni solo del 15%, lasciando ancora 11 milioni di tonnellate di CO₂ da compensare;
- Sistemi avanzati di raffreddamento a liquido, ottimizzazione dell’utilizzo dei server e gestione dinamica dei carichi di lavoro.
“La posizione, la fonte di energia e la tecnologia di raffreddamento determinano insieme se l’infrastruttura Ai diventa parte della soluzione di sostenibilità”, sottolinea Fengqi You, autore principale dello studio. L’adozione combinata di queste misure potrebbe ridurre fino al 73% le emissioni di CO₂ e dell’86% i consumi d’acqua rispetto agli scenari peggiori.
Il paradosso della sostenibilità digitale
I big player dell’intelligenza artificiale promettono di ottimizzare i consumi energetici, migliorare la gestione delle reti elettriche e accelerare la transizione ecologica. L’Ai sta entrando nella gestione dei consumi, nella manutenzione predittiva e persino nella personalizzazione delle offerte, ma questo potenziale viene controbilanciato dai consumi dei data center necessari per farla funzionare.
Le aziende tecnologiche dichiarano obiettivi ambiziosi: Microsoft punta a diventare “carbon negative” entro il 2030, mentre altre Big Tech promettono di alimentare le proprie operazioni al 100% con energia rinnovabile. Ad oggi, però, la transizione non è ancora completa e una parte consistente dell’energia utilizzata nei data center proviene ancora da fonti fossili. Lo studio della Cornell avverte che, senza interventi coordinati, il settore difficilmente riuscirà a centrare gli obiettivi di zero emissioni entro il 2030.
Gli interventi necessari e il tempo a disposizione
Gli 80% dei data center statunitensi si concentra in 15 Stati, con Virginia e Texas in testa. Goldman Sachs stima che entro il 2030 saranno operativi circa 122 gigawatt di capacità globale, con un mix sempre più sbilanciato verso hyperscaler e operatori wholesale.
La densità di potenza per metro quadro crescerà da 162 a 176 kilowatt nel 2027 (anno cruciale per la battaglia tecnologico Usa-Cina secondo lo Studio Ai 2027), rendendo ancora più critico il problema del raffreddamento.
Per sostenere questa espansione, la rete elettrica richiederà investimenti stimati in 720 miliardi di dollari entro il 2030 solo negli Stati Uniti. In Europa, la Commissione prevede oltre 1.200 miliardi di euro di investimenti nelle infrastrutture elettriche entro il 2040. “L’impronta è significativa ma anche gestibile con azioni coordinate”, conclude Fengqi You. Ora la comunità si chiede se queste azioni arriveranno in tempo per evitare che l’intelligenza artificiale diventi un acceleratore della crisi climatica invece che uno strumento per contrastarla.