“Sono tanti gli aspetti da analizzare sull’Intelligenza artificiale, a partire dal necessario investimento su un futuro che ormai è dietro le spalle, considerando che l’Ai esiste già da molto tempo”, esordisce così Nunzia Ciardi, vicedirettore generale dell’Agenzia per la cybersicurezza nazionale, ospite dell’evento Adnkronos Q&A, ’Trasformazione digitale, dentro l’AI’ che si è tenuto oggi, 19 novembre, presso il Palazzo dell’Informazione di Roma.
“L’attuale esplosione dell’Ai – ricorda Ciardi – è dovuta al successo dell’Intelligenza artificiale generativa che ha colpito l’immaginario collettivo perché riesce a capire il linguaggio naturale e a generare output che hanno dato una sterzata alle potenzialità dell’Intelligenza artificiale”. Un percorso che parte da lontano dal momento che “Questa tecnologia è il frutto di tutta l’evoluzione che ha contrassegnato gli ultimi decenni. Non si tratta di una rivoluzione solo tecnologica, ma antropologica perché ha cambiato profondamente il nostro rapporto con la realtà”, aggiunge il vicedirettore generale dell’Agenzia per la cybersicurezza nazionale.
Ai, opportunità o pericolo?
“Molti sono preoccupati dall’Ai, ma non condivido l’approccio catastrofista. Non credo in un futuro distopico dove le macchine prenderanno il sopravvento sugli esseri umani. Anzi, credo che l’intelligenza artificiale sia una risorsa fondamentale per competere sulla scena internazionale”, dice Ciardi, che aggiunge: “Se è vero che l’Ai deve essere un ausilio per l’uomo e non un suo competitor, è anche vero che noi come Paese dobbiamo competere nel campo dell’Intelligenza artificiale. Sono assolutamente d’accordo con la scelta di mettere al centro questa tecnologia, come avvenuto nel G7 dove l’Ai è stato uno dei temi fondamentali”.
“Quello che ha di rivoluzionario questa tecnologia è l’output, ma di per sé l’Intelligenza artificiale è il frutto dei dati raccolti dalle aziende in questi anni. In pratica, l’Ai è la somma di dati e capacità computazionale”, ricorda Ciardi secondo cui: “I Paesi che saranno in grado di avere dati affidabili e una grande capacità computazionale avranno un posto di rilievo nella scena internazionale”.
I potenziali vantaggi sono enormi: “Bernard Marr diceva che dal 2013 al 2015 sono stati accumulati più dati che in tutta la restante storia dell’umanità e questo processo aumenta a velocità sempre maggiori. Quindi, l’Ai può e potrà sempre di più attingere da un enorme bacino di dati e processarli in un tempo inimmaginabile per la mente umana”. Tanti i settori che possono giovarne: “Le capacità dell’Ai possono ottimizzare i processi nel campo dell’energia, della ricerca, delle aziende che hanno bisogno di processare tantissimi dati”.
Che l’Ai sia già centrale nell’economia lo dicono i dati: “Pensiamo solo che il mercato globale dell’Ai ha visto una stima intorno ai 184 miliardi di dollari e si prevede che entro il 2030 supererà gli 800 miliardi di dollari. In Italia l’anno scorso il volume di risorse investite nell’Intelligenza artificiale è aumentato del 52%, intorno ai 750 milioni di euro. Insomma, è un settore trainante per l’economia”, dice il vicedirettore dell’Agenzia nazionale per la cybersicurezza.
L’Ai e il lavoro
L’Ai pone anche tanti problemi, a partire dal timore che questa tecnologia possa togliere posti di lavoro, come già avvenuto in alcune aziende. “La vulgata ci dice che non sappiamo ancora quali sono le professioni che si affermeranno tra dieci anni. Oggi abbiamo tante specializzazioni che hanno una carenza di professionisti del settore e ancora non sappiamo quanti posti di lavoro creerà l’Ai.
Al tempo stesso è impossibile ignorare la preoccupazione sulla sostituzione dell’essere umano al lavoro. Una statistica internazionale del 2023 ha stimato una carenza di professionisti per il digitale intorno ai 3 milioni, cifra che è salita a 4 milioni in appena un anno. Questo rende l’idea di quanto aumenti velocemente il gap tra le competenze richieste dal mercato e quelle offerte dalle persone”.
“È vero si perderanno alcuni posti di lavoro e se ne creeranno altri ma c’è un tema fondamentale: la transizione”, avverte Ciardi. “La professionalizzazione di chi sarà sostituito dall’Ai ha bisogno di una sincronizzazione. Non si può espellere dal mercato gente che non è in grado di ricoprire quei posti altamente specializzati che saranno funzionali all’Intelligenza artificiale”.
L’Intelligenza artificiale e i dati
Quando si parla di Intelligenza artificiale, si parla necessariamente di dati e di due domande, riportate anche dal vicedirettore Ciardi durante l’evento Adnkronos: “Chi possiede questi dati? E di cosa sono portatori? La ricerca in Italia spesso si rivolge a creare algoritmi che parlino italiano perché la lingua non è soltanto un mezzo di comunicazione ma è anche un portato di valori, di civiltà, di concetti condivisi. Quindi, avere un algoritmo che parla la propria lingua e che è addestrato con dati propri è un valore aggiunto. Attorno a queste riflessioni si sviluppa il tema di autonomia tecnologica che noi come Italia e come Europa dobbiamo sviluppare per ridurre progressivamente la nostra dipendenza tecnologica” da Stati Uniti e Cina.
“Questi dati che sono necessari e appetibile per l’Ai sono anche necessari e appetibili per la criminalità, quasi sempre organizzata. I dati stanno diventando oggetto di appetiti enormi, pensiamo al ransomware che è una piaga enorme che affligge aziende e istituzioni”.
Il tema dei dati solleva un corollario: “Se ci affidiamo completamente all’Intelligenza artificiale, per quanto saremo ancora in grado di controllarla? Questo tipo di competenza umana andrà a sparire perché sostituito dall’Ai? Questo è un altro tema da approfondire”, dichiara Ciardi.
La responsabilità dell’Intelligenza artificiale
“I sistemi di Ai sono spesso definiti delle black box nel senso che le risposte che danno a una mia domanda è una risposta che nessuno è in grado di ricostruire in tutti i suoi passaggi. Per gli stessi sviluppatori è difficile capire quali siano stati i dati processati da un algoritmo di Ai per generare l’output. Questo – avverte Ciardi – ci interroga sul tema della responsabilità: se noi affidiamo una decisionalità all’Ai, chi sarà responsabile anche giuridicamente di un output che non possiamo ascrivere a chi ha progettato quel motore di Intelligenza artificiale?”.
C’è poi un tema di sostenibilità ambientale: “Si stima che i server di ChatGPT nel 2027 richiederanno un volume di acqua pari a quattro volte uno Stato come la Danimarca e il discorso è analogo per altre forme energetiche. Per questo, sarà sempre più urgente trovare un Ai che riduca il consumo di risorse”, spiega Nunzia Ciardi.
Intelligenza artificiale ed etica
L’aspetto etico dell’Ai è quello che più divide le persone su questa tencologia: “Tutti voi avete in mente lo smartphone che, quando digitate una parola, vi suggerisce le possibili parole successive in base a un calcolo di probabilità. L’algoritmo Life2vec sviluppato in un Università della Danimarca – rivela il vicedirettore – ha usato lo stesso procedimento di probabilità statistica con gli avvenimenti della vita delle persone.
In pratica, seguendo per anni le abitudini di un vasto campione, predice il futuro delle persone partendo da una serie di informazioni: il tipo di alloggio in cui si vive, se si abita in campagna, in città o in un determinato quartiere, eventuali parenti morti per qualche malattia specifica, il fatto che si sia o non si sia soddisfatti del proprio lavoro e così”. Tutti dati che da soli dicono poco ma che “per l’algoritmo sono la base per prevedere altri avvenimenti. Questa Ai riesce addirittura a prevedere con un certo di accuratezza la data del decesso delle persone.
Io – evidenzia Ciardi – ritengo che un sistema del genere possa essere prezioso se messo al servizio delle politiche sociali di un Paese. Per esempio, potremmo apprendere che chi vive in un determinato contesto abitativo o territoriale è avvantaggiato, svantaggiato e così via con evidenti benefici da un punto di vista della politica sociale e sanitaria”, spiega il vicedirettore prima di lanciare un monito: “Lo stesso strumento diventa pericolosissimo se messo al servizio di un’assicurazione sanitaria senza scrupoli o di chiunque voglia sfruttare un dato per monetizzarlo in maniera brutale. Perciò, dobbiamo interrogarci sull’etica e sull’utilizzo di questi strumenti”.
Ai e cybersicurezza
La dualità dell’Ai si rivela inesorabilmente anche nella materia che il vicedirettore segue più da vicino: “Come Agenzia per la cybersicurezza nazionale sappiamo che anche in questo campo l’Ai può essere una grande minaccia e un’enorme opportunità. Una minaccia perché è in grado di mutare ed eludere i controlli di sicurezza, un’opportunità perché può aiutarci ad accrescere la sicurezza digitale intercettando anche piccole anomalie che possono essere precursori di un attacco”.
All’essere umano il compito di far pendere l’ago dalla parte giusta della bilancia.