La partita dell’intelligenza artificiale si sta decidendo nei passaggi in cui politica, imprese e istituzioni devono assumersi responsabilità immediate, non nelle previsioni a lungo termine. È la foto di un presente che corre: l’intelligenza artificiale è già dentro le infrastrutture energetiche, nei telefoni, negli ospedali, nella pubblica amministrazione, nei flussi pubblicitari dei media.
A Palazzo dell’Informazione, per l’evento “Intelligenza umana, supporto artificiale” promosso da Adnkronos Q&A, nessuno perde tempo a discutere se l’Ai sia utile o no. Si parla di regolamenti europei che rischiano di frenare un settore in cui l’Europa è in vantaggio, di data center che consumano il 40% di energia in più, di telecamere che certificano la provenienza delle immagini, di Pmi che possono guadagnare fino al 60% di produttività ma non hanno ancora digitalizzato i propri processi.
La competizione è globale, la finestra temporale è stretta, le scelte sono immediate: dove investire, quali regole ritoccare, come non sprecare le poche traiettorie di leadership industriale che il continente ha ancora a disposizione. E quanto capitale umano serve, davvero, per reggere l’urto di una tecnologia che, nel giro di pochi anni, ha superato per diffusione perfino Internet.

L’Ai e il nodo della regolazione europea
La prima faglia passa da Bruxelles. Per Flavio Arzarello, public policy manager di Meta, per ritrovare “crescita economica e competitività” l’Europa deve puntare dove ha ancora margine di leadership. Gli Ai glasses sono uno di questi punti: un mercato che, secondo le stime, potrebbe raggiungere i 138,5 miliardi di dollari entro il 2029, con un ecosistema europeo già strutturato e la partnership tra Meta ed EssilorLuxottica come simbolo di una filiera che incrocia tecnologia, design e industria manifatturiera.
Quella che Arzarello definisce una “rara opportunità” rischia però di essere compromessa da un dettaglio regolatorio tutt’altro che marginale: il regolamento Ue sulle batterie. Dal febbraio 2027, le batterie dovranno essere rimovibili dall’utente finale anche nei dispositivi indossabili. Su occhiali che devono restare leggeri, con un design curato e un’autonomia sufficiente per un uso quotidiano, il vincolo fisico è evidente. “Gli obblighi previsti rappresentano un serio problema, in particolare per i dispositivi indossabili”, avverte, chiedendo un’“eccezione specifica” per questa categoria di prodotti.
Il manager parla di un “rischio duplice” per consumatori e imprese: una regolazione che rende peggiori i prodotti disponibili in Europa e scoraggia gli investimenti in un settore in cui il continente è, per una volta, davanti agli altri. La sua posizione non è isolata: sul tavolo c’è il Simplification Omnibus, il pacchetto con cui la Commissione prova a correggere alcune rigidità dei grandi regolamenti digitali degli ultimi cinque anni, e soprattutto una serie di appelli firmati da 60 amministratori delegati europei e da 19 Capi di Stato e di governo, tra cui Giorgia Meloni e Olaf Scholz, che chiedono una semplificazione più netta del quadro normativo.
Arzarello va oltre il singolo dossier batterie e punta l’attenzione sull’Ai Act. Nel mirino ci sono soprattutto le soglie basate sulla capacità computazionale per definire i modelli “general purpose a rischio sistemico”: parametri che, a suo giudizio, sono già superati sul piano tecnologico e che richiederebbero un “ripensamento complessivo”. Non per alleggerire le tutele tout court, sostiene, ma per evitare che l’Europa si costruisca intorno un perimetro normativo che soffoca proprio le imprese che vorrebbe far crescere.
Su un altro livello, Martin Signoux, Ai Policy Lead Europe di OpenAi, racconta un’accelerazione che rende ancora più urgente la revisione delle regole. Ricorda che un anno fa i primi modelli di “reasoning” erano in grado di lavorare per pochi secondi su compiti semplici; oggi esistono sistemi in grado di ragionare per ore e affrontare problemi complessi, come quelli delle Olimpiadi internazionali di matematica. La tecnologia, insiste, progredisce a una velocità maggiore rispetto a ogni ondata precedente e la sua adozione segue la stessa curva. La strategia Apply Ai presentata dalla Commissione, con un miliardo di euro per stimolare l’uso dell’Ai in dieci settori, viene giudicata “un primo passo ma chiaramente insufficiente” di fronte alla scala degli investimenti necessari.
In questo quadro, il Digital Omnibus viene letto come un tentativo di rimettere proporzionalità e pragmatismo in un impianto regolatorio che ha privilegiato il controllo sull’abilitazione. Ma la questione, per molti dei presenti, è meno tecnica di quanto sembri: si tratta di decidere se l’Europa vuole essere un luogo in cui si può innovare all’interno di regole chiare, oppure un mercato che consuma prodotti sviluppati altrove.
L’Ai vista dai data center
La potenza computazionale è l’altra variabile che può trasformare l’Ai in un acceleratore di crescita o in un collo di bottiglia permanente. Per Signoux il limite non è la domanda, è la capacità di calcolo necessaria a distribuire i modelli più avanzati. Da qui gli investimenti di OpenAi e dei partner industriali in nuovi data center e accordi su scala nazionale. L’adozione corre a una velocità senza precedenti: oltre 4 milioni di sviluppatori lavorano già con le piattaforme di OpenAi, un milione di aziende ha integrato i modelli nei propri processi e 800 milioni di persone usano i servizi dell’azienda ogni settimana. Proprio questa crescita, però, si scontra con un ostacolo evidente: le infrastrutture attuali non sono sufficienti a sostenere modelli sempre più potenti.
Dal lato dell’hardware pesante, la fotografia che arriva dall’Italia la scatta Carlo Vaiti, distinguished technologist di Hewlett Packard Enterprise. Il supercomputer di Pavia, realizzato con Eni, è stato per mesi tra i cinque più potenti al mondo; oggi è sesto, ma è già pronto un potenziamento. Su quella macchina girano simulazioni complesse: analisi del sottosuolo, geofisica, scienza dei materiali, con modelli Ai che aiutano a individuare nuove aree di estrazione di petrolio e gas e, in prospettiva, siti adatti alle rinnovabili.
Dietro la retorica del “calcolo infinito” c’è però una questione molto concreta: il consumo energetico. “Il consumo energetico dei data center negli ultimi anni è cresciuto del 30-40%”, sottolinea Vaiti. Se l’esplosione di dati continua su questa traiettoria, “arriveremo al punto in cui non avremo più energia per alimentare questi data center”. La risposta industriale di Hpe passa per i data center raffreddati a liquido, che secondo l’azienda permettono di sviluppare applicazioni Ai usando circa la metà delle risorse in termini di energia ed emissioni di carbonio rispetto ai sistemi tradizionali.
La frontiera successiva è l’integrazione tra high performance computing e simulazione quantistica. Con la Quantum Scaling Alliance, Hpe lavora a configurazioni in cui decine di migliaia di nodi – 10.000, 20.000, 30.000 – operano in parallelo su calcoli complessi, dalla modellazione del territorio alle simulazioni avanzate per l’energia. È un terreno su cui l’Italia, grazie a infrastrutture come il sistema di Pavia, può giocare un ruolo non marginale nella catena del valore mondiale.
A chi obietta che tutto questo riguardi solo i grandi player, Vaiti risponde ricordando che queste piattaforme sono quelle che alimentano gli hyperscaler – i grandi fornitori globali di servizi cloud – e quindi, indirettamente, la base su cui anche le piccole e medie imprese accedono all’Ai tramite servizi gestiti. La vera discriminante diventa la qualità dei modelli e la capacità di usarli in modo sicuro. Per questo l’azienda investe nella formazione di sviluppatori capaci di progettare sistemi complessi tenendo conto di trasparenza, inclusività, resilienza e protezione dei dati. Sullo sfondo, l’arrivo di tecnologie quantistiche in grado di mettere sotto pressione le forme tradizionali di crittografia impone di ripensare perimetri e standard di sicurezza, dalla crittografia post-quantum alle regole di conservazione dei dati nei data center dei clienti.
L’Ai che entra nella quotidianità
Mentre i supercomputer consumano megawatt, l’altra metà della rivoluzione si gioca nei dispositivi che usiamo ogni giorno. Antonio Bosio, head of B2B Center of Excellence di Samsung Electronics Italia, riassume l’obiettivo così: trasformare l’intelligenza artificiale “in valore concreto, per le persone e per le imprese”, rendendola accessibile e “senza lasciare indietro nessuno”. È un’affermazione che pesa, considerando che i prodotti Samsung sono nelle tasche e nelle case di una quota enorme di utenti.
La scelta strategica è portare l’Ai “sul dispositivo”, non solo nel cloud. Un esempio: le chiamate quotidiane con i colleghi in Corea. Bosio parla in italiano al suo smartphone, il collega risponde in coreano, e ciascuno sente nella propria lingua grazie alla traduzione in tempo reale eseguita dal telefono. Nessuna piattaforma esterna visibile, nessun passaggio intermedio: se si disattivano i dati, la funzione continua a funzionare, proprio perché il modello gira localmente. Anche quando dall’altra parte c’è un telefono fisso privo di qualsiasi “intelligenza”, è il dispositivo dell’utente a fare l’intero lavoro di interpretazione e sintesi.
Molto più sensibile è l’ambito della diagnostica medica. Samsung ha integrato layer di intelligenza artificiale nelle apparecchiature per la diagnostica per immagini – ecografi, Tac – che dopo l’esame analizzano le immagini e segnalano automaticamente le aree sospette, chiedendo al medico un supplemento di attenzione. Non sostituiscono la valutazione clinica, ma la amplificano. Bosio porta un riferimento concreto: se fissiamo a 100 la capacità di un buon medico nel riconoscere anomalie, l’Ai da sola si colloca attorno alla stessa soglia, ma la combinazione tra medico e sistema porta l’accuratezza tra 115 e 120. L’algoritmo non fa diagnosi al posto di chi firma il referto, però riduce il margine di errore e aiuta a uniformare le performance tra strutture diverse.
In casa, intanto, l’Ai lavora da anni senza che quasi nessuno ci faccia caso. “Da 10 anni a questa parte le televisioni dentro hanno già un motore di intelligenza artificiale”, ricorda Bosio. Il suo compito è analizzare in tempo reale la qualità del segnale in ingresso e “inventare” i pixel mancanti quando il contenuto è a bassa risoluzione ma il televisore è molto grande. È un processo di upscaling che permette di evitare immagini sgranate su schermi 4K o 8K. L’utente vede solo un film “che si vede bene”; dietro ci sono reti neurali che ricostruiscono texture, contorni e dettagli.
La pervasività di queste funzioni comporta una responsabilità diretta. Samsung ha creato comitati etici interni e distribuisce i team di ricerca e sviluppo a livello globale per ridurre il rischio che i sistemi incorporino pregiudizi specifici di un solo contesto. Al centro, la consapevolezza che ciò che oggi appare come servizio comodo – il telefono che traduce, il televisore che migliora i film, la macchina che segnala un’anomalia clinica – è anche il modo in cui miliardi di persone si abituano a interagire con l’Ai.
L’Ai come strumento operativo
L’Ai non è solo prodotto da vendere agli utenti finali: è motore di trasformazione nei processi delle imprese, nei servizi digitali e nella produzione di contenuti. Diego Ciulli, Head of Government Affairs and Public Policy per Google Italia, prende come esempio Ai Mode, la nuova funzione del motore di ricerca: un tab che, invece di restituire una lista di link, lancia in parallelo decine di ricerche e costruisce una risposta sintetica a domande complesse. Non più “quali sono gli adempimenti per la registrazione anagrafica” o “quando devo vaccinare mio figlio”, ma un unico, diretto “mi è nato un figlio, che devo fare?”.
La differenza, sottolinea, è che Ai Mode integra link alle fonti originali. È un punto decisivo nel rapporto con l’editoria: un conto è un chatbot che risponde senza citare le testate, un altro è un sistema che continua a portare traffico a chi produce informazione. Google, ricorda Ciulli, sta già sperimentando in diversi Paesi accordi con gli editori per utilizzare i loro contenuti nell’addestramento dei sistemi di Ai, riconoscendo un valore economico alla base. In Italia, al momento, questi accordi non sono possibili a causa del quadro regolatorio, ma la direzione è tracciata. Quando Internet ha iniziato a diffondersi, se si fosse impedito a Google di indirizzare verso i siti degli editori, i lettori non sarebbero tornati in edicola, avrebbero trovato altre vie digitali. Allo stesso modo, oggi, chi cerca “quanto è alta la Torre Eiffel” non accetterà di leggere dieci pagine di testo prima di trovare la risposta, se la tecnologia consente di fornirla subito.
Nel tessuto produttivo, Daniele Lombardo di TeamSystem porta la prospettiva delle micro, piccole e medie imprese con cui l’azienda lavora: circa tre milioni di clienti in Italia e all’estero. L’Ai, dice, “è un viaggio già iniziato” che ha smesso di essere sperimentazione: nelle aziende che la adottano, contabilità, gestione documentale, manutenzione vengono sempre più automatizzate. L’inserimento manuale dei dati lascia spazio a sistemi che precompilano, propongono classificazioni, anticipano guasti; alle persone resta la supervisione e il controllo. I vantaggi in termini di produttività, nei casi misurati, vanno “dal minimo del 20% fino al 60%”.
Ma il nodo sta a monte: “Per l’Ai servono i dati nei processi”, ricorda Lombardo. Senza piattaforme digitali diffuse l’intelligenza artificiale non può lavorare. E qui i numeri non sono rassicuranti: secondo Istat, il 70,2% delle Pmi italiane ha un livello basso di digitalizzazione. Il rischio è che le grandi aziende, più strutturate, corrano avanti, mentre la parte prevalente del tessuto produttivo resta in coda. Per evitare questo scenario, il manager invoca un’iniziativa di scala nazionale che accompagni centinaia di migliaia di imprese nella trasformazione, sulla scia di esperienze come quella spagnola, dove una politica di voucher ha portato alla digitalizzazione di circa 350 mila aziende.
Sul fronte pubblico, Nicola Mangia di Dxc Technology racconta una Pa diversa dall’immagine di inerzia che la accompagna spesso. Grazie al Pnrr, “il cambiamento che si sta attuando nella Pa italiana non è banale”. Con il Ministero dell’Ambiente Dxc sta sviluppando una piattaforma di monitoraggio ambientale che, per la prima volta, permetterà al Paese di avere una lettura integrata e anche previsionale della qualità del suolo e del sottosuolo. Un patrimonio informativo che potrà essere usato dalle amministrazioni per le politiche ambientali, ma anche dalle filiere agricole e dalle imprese per decidere dove e come investire.
Con il Ministero della Cultura è in corso la realizzazione della prima grande “Digital Library” dei beni culturali italiani, una banca dati che ha impressionato anche il board internazionale dell’azienda per le ricadute potenziali sul turismo e sull’economia dei territori. In sanità, poi, l’Ai è stata utilizzata già durante la pandemia di Covid per mappare e gestire i focolai, e oggi viene applicata alla prevenzione e alla definizione di protocolli clinici, dentro un ecosistema che mette intorno allo stesso tavolo università, strutture sanitarie, ricercatori e giuristi. Non a caso, Dxc ha creato un “Ai board” formato anche da giovani laureati in discipline non tecniche – economia, filosofia, sociologia – proprio per affrontare in modo multidisciplinare gli impatti di sistemi tanto pervasivi.
La dimensione sociale dell’Ai
La tenuta del sistema, nel medio periodo, dipende dal modo in cui cittadini e istituzioni gestiranno due elementi: la qualità dell’informazione e le competenze diffuse. Sul primo fronte, Hitomi Hamaba di Sony mette in fila i numeri che preoccupano le redazioni e i regolatori: secondo il World Economic Forum, misinformazione e disinformazione sono al primo posto nel Global Risks Report 2025; per il Reuters Institute, il 60% delle persone nel mondo teme di non riuscire a distinguere tra contenuti reali e immagini o video generati dall’Ai. L’esperienza quotidiana su Instagram, X, TikTok conferma la sensazione di un flusso continuo in cui la provenienza dei contenuti è spesso opaca.
La risposta di Sony è tecnica e industriale. L’azienda sta lavorando con altri attori del settore allo standard C2PA (Coalition for Content Provenance and Authenticity), che permette di inserire nei file multimediali informazioni verificabili sulla loro origine e sul percorso di modifica. La prima videocamera in grado di registrare immagini con metadati C2PA incorporati è già sul mercato. Lo scenario ideale è questo: una camera certificata registra il video, un’emittente o un’agenzia stampa lo firma, i software di editing compatibili aggiornano la catena delle firme a ogni passaggio, e il prodotto finale viene pubblicato con un certificato di provenienza leggibile dagli utenti. Chi guarda quel contenuto online sa che è stato girato con una certa apparecchiatura, in una certa data, e che è stato diffuso da una fonte identificabile. Non è una garanzia assoluta, ma è un salto di trasparenza rispetto al caos attuale.
Sul secondo fronte, quello delle competenze, l’intervento di Giustina Secundo, prorettrice all’Innovazione della Libera Università Mediterranea “Giuseppe Degennaro”, offre una lente privilegiata. Uno studio condotto da un’agenzia italiana mostra che l’83% degli studenti universitari utilizza l’intelligenza artificiale; la percentuale sale all’85% nei corsi magistrali e all’87% tra i dottorandi. L’Ai generativa permette a uno studente di produrre “dieci e più versioni di un business plan” in pochi minuti. Il punto non è più se gli studenti usano questi strumenti, ma se sono in grado di valutare quale versione ha senso, dove sono gli errori, quali dati mancano.
Secundo descrive una biforcazione: per alcuni l’Ai è un turbo per la creatività e la sperimentazione, per altri diventa uno scudo dietro cui nascondersi per evitare lo sforzo di pensare. Il mercato del lavoro, però, cerca sempre meno tecnici chiusi nel perimetro dell’algoritmo puro e sempre più profili capaci di “tradurre il contesto”: leggere i dati di uno scenario, collegarli a obiettivi concreti, trasformarli in soluzioni utilizzabili. In questo quadro, gli studenti stanno diventando “orchestratori cognitivi”, in grado di combinare strumenti diversi – per il testo, il design, l’analisi – come dj che miscelano tracce tecnologiche differenti per arrivare più velocemente a un prototipo.
Per il sistema universitario, questo richiede un cambio di passo. I percorsi disciplinari rigidi, basati su curricula chiusi, fanno fatica a tenere il ritmo di un’innovazione che riduce drasticamente il tempo tra l’idea e il prototipo, mentre non accorcia in modo automatico il percorso verso la sostenibilità economica di una startup. L’Italia, secondo l’Ai Index dedicato alla formazione, è al secondo posto in una graduatoria di otto Paesi per quanto riguarda regolamentazione e governance dell’Ai negli atenei. Ma questo vantaggio rischia di restare teorico se non si moltiplicano i casi d’uso reali e i programmi di aggiornamento continuo per chi è già laureato.
La conclusione implicita è che l’Ai non sostituirà “tutti”, ma cambierà le richieste su quasi tutti: capacità di disimparare nozioni superate, pensiero critico per valutare le risposte di sistemi sempre più sofisticati, alfabetizzazione etica per muoversi in un ambiente in cui la linea tra contenuto autentico e sintesi generata diventa sempre più sottile. Su questo terreno, più che su slogan e annunci, si giocherà la credibilità delle politiche pubbliche e delle strategie industriali sull’intelligenza artificiale.