L’intelligenza artificiale è una tecnologia sconvolgente. In tutti i sensi, incluso quello ambientale, con i data center che fagocitano risorse per alimentare l’Ai. Quella di trovare soluzioni sostenibili per far funzionare l’Ai è una necessità sempre più impellente per la tenuta energetica globale. In tal senso, arriva una novità confortante: un team di ricercatori guidato dal National Institute of Standards and Technology (Nist) ha sviluppato un chip fotonico che utilizza Led microscopici per imitare il cervello umano, riducendo drasticamente il consumo energetico rispetto ai processori tradizionali.
Come avevamo già visto su queste pagine, infatti, il nostro cervello impiega molta meno energia per funzionare rispetto all’intelligenza artificiale.
Luce al posto degli elettroni: come funziona
I computer attuali elaborano le informazioni spostando elettroni attraverso transistor, un processo che genera calore e consuma molta energia. Il nuovo chip del Nist, invece, sfrutta la fotonica: usa la luce (fotoni) per trasmettere e processare i dati. Al centro del sistema ci sono reti neurali spiking (Snn), circuiti che replicano il modo in cui i neuroni biologici comunicano tra loro inviando impulsi (“spike”) solo quando necessario, proprio come fa il cervello umano.
Questa architettura neuromorfica permette di attivare i nodi di calcolo solo nel momento esatto in cui serve, quasi azzerando il consumo inattivo. Non ci sono solo vantaggi ambientale, ma di produttività: secondo i primi test, questi chip possono essere fino a 100 volte più efficienti delle Gpu tradizionali utilizzate oggi per addestrare modelli come ChatGpt.
Il confronto impietoso con il cervello
Per capire la portata della sfida, basta guardare ai numeri. Il cervello umano consuma circa 20 watt – quanto una lampadina a Led – per gestire 86 miliardi di neuroni e svolgere compiti complessi in parallelo (pensare, muoversi, ricordare). Un sistema di intelligenza artificiale che prova a replicare la stessa capacità computazionale con l’hardware attuale richiederebbe circa 2,7 miliardi di watt. Un confronto impietoso.
Questo succede perché il cervello non deve spostare continuamente i dati avanti e indietro come fanno i computer (il cosiddetto “collo di bottiglia di von Neumann”), ma elabora le informazioni direttamente dove le immagazzina.I chip fotonici neuromorfici puntano a replicare proprio questa efficienza strutturale, che integra memoria e calcolo.
Perché è una svolta per l’industria
Il mercato dei chip Ai fotonici è in esplosione: nel 2026 varrà già 3,14 miliardi di dollari, con una crescita esponenziale prevista fino a 20 miliardi nei prossimi anni. Aziende come Ibm, Intel e startup innovative (Lightmatter, Luminous Computing) stanno investendo massicciamente in questa direzione per risolvere il problema della sostenibilità deidata center utilizzati per l’Ai.
Oltre al risparmio energetico, la fotonica offre velocità di trasmissione dati elevatissime e bassa latenza, cruciali per applicazioni di Ai in tempo reale come la guida autonoma o la robotica avanzata.
Se i chip tradizionali stanno raggiungendo i limiti fisici della miniaturizzazione (per la cosiddetta legge di Moore), la luce apre una nuova strada per continuare a scalare la potenza di calcolo senza bruciare il pianeta.