L’Ai ragiona? Di sicuro consuma 200 milioni di volte l’energia usata dal nostro cervello

I ricercatori stanno provando a replicare la struttura del cervello umano per l’Ai
23 Giugno 2025
3 minuti di lettura
Ai Cervello Umano Mani

Mentre ci chiediamo se l’intelligenza artificiale sappia davvero ragionare come un essere umano, una cosa è certa: l’Ai consuma circa 200 milioni di volte l’energia utilizzata dal nostro cervello per elaborare informazioni e “ragionare”. Il cervello umano riesce a compiere operazioni cognitive complesse utilizzando appena l’energia necessaria per accendere una lampadina.

La sproporzione, pubblicata su Science Robotics, tra le risorse usate dai due diversi tipi di intelligenze è imbarazzante.

L’energia utilizzata dall’Ai

I moderni sistemi di visione robotica, che impiegano modelli di machine learning simili a quelli di ChatGPT, consumano energia in misura massiccia. Al cervello bastano 12–20 watt per far funzionare 86 miliardi di neuroni che coordinano linguaggio, movimento, memoria, creatività, senza nessun “tasto off”. Per simulare qualcosa di simile, un’Ai consumerebbe circa 2,7 miliardi di watt

La causa di questo consumo elevato deriva principalmente dall’architettura computazionale attuale, basata su Gpu (unità di elaborazione grafica) che, seppur straordinarie per eseguire calcoli matematici in parallelo, sono strutturalmente diverse da un cervello. Il cervello umano, al contrario, utilizza solo l’energia sufficiente per illuminare una lampada da comodino, eppure ci permette di percepire e navigare nell’ambiente circostante con precisione notevole. Questa efficienza deriva da un’architettura completamente diversa, dove calcolo e memoria sono intrinsecamente collegati e le connessioni neurali vengono dinamicamente raffinate attraverso l’apprendimento e millenni di evoluzione.

La ricerca di soluzioni bio-ispirate e i chip neuromorfi

Gli ingegneri robotici cercano sempre più spesso ispirazione dalla biologia umana per sviluppare sistemi più efficienti. L’informatica neuromorfica rappresenta una delle strade più promettenti: si tratta di progettare chip che imitano la struttura e il funzionamento del cervello umano a livello fisico. Questi chip neuromorfi possono consumare da 10 a 1000 volte meno energia rispetto ai computer convenzionali.

Le telecamere bio-ispirate, chiamate sensori di visione dinamica, funzionano come rilevatori di movimento per ogni pixel, attivandosi e trasmettendo informazioni solo quando si verificano cambiamenti nella scena. Questi dispositivi utilizzano meno dell’1% dell’energia delle telecamere tradizionali, dimostrando concretamente i vantaggi dell’approccio bio-ispirato.

L’hardware del futuro per l’Agi

Per raggiungere un’intelligenza artificiale generale (Agi) davvero efficiente, probabilmente servirà un hardware dedicato, diverso da quello attuale delle Ai generative. I chip neuromorfi con neuroni e sinapsi che consumano energia solo quando attivi potrebbero essere intrinsecamente più efficienti e teoricamente più adatti a eseguire algoritmi di ragionamento complessi.

Non si tratta quindi di più potenza di calcolo, ma di un tipo di architettura su misura per il tipo di intelligenza che vogliamo creare. Ricerche recenti hanno dimostrato che un design digitale compute-in-memory può ridurre l’area del silicio del 72,30% e il consumo energetico complessivo del 57,26% rispetto alle implementazioni analogiche tradizionali.

Un aspetto fondamentale emerge dall’analisi: se un’Agi deve essere “umana”, dovrà necessariamente incorporare qualche forma di ragionamento euristico, quindi soggiacere a un compromesso tra precisione meccanica e rapidità umana. Gli “errori umani” come bias ed euristiche non sono bug ma un compromesso evolutivo che evita calcoli costosi a favore di decisioni rapide con dati scarsi.

Le reti neurali, come il cervello, non producono risultati ma fanno stime approssimate, convergono per gradienti, usano campioni con “rumore”. Questo approccio statistico, seppur meno preciso di un calcolo deterministico, permette di operare in ambienti aperti dove lo spazio dei casi possibili non è noto a priori.

Strategie per ridurre il consumo

Per mitigare il consumo energetico dell’Ai, gli esperti raccomandano di comunicare con i modelli intelligenza artificiale in modo più diretto. Indicare una lunghezza di risposta desiderata e limitare le richieste a una o due frasi – o dichiarare esplicitamente che non è necessaria alcuna spiegazione – può aiutare a ridurre i consumi.

Non tutti i modelli Ai sono uguali dal punto di vista energetico. I modelli specifici per compiti particolari sono spesso molto più piccoli ed efficienti pur essendo altrettanto efficaci per attività contestuali specifiche.

Verso un’intelligenza sostenibile

Lo sviluppo di chip compute-in-memory giocherà un ruolo cruciale nell’abilitare un’Ai sostenibile, riducendo l’impatto ambientale di modelli di machine learning sempre più complessi. Questa tecnologia promette di portare capacità di Ai potenti in ambienti con risorse limitate come dispositivi mobili e sensori IoT.

Il futuro dell’intelligenza artificiale potrebbe passare non attraverso processori sempre più potenti e affamati di energia, ma attraverso architetture che emulano l’elegante efficienza del cervello umano.

Green Economy | Altri articoli