Ottobre 2027. L’occidente si trova a un bivio esistenziale. Da una parte, la possibilità di rallentare lo sviluppo dell’intelligenza artificiale per contenere il rischio di una ribellione contro gli esseri umani. Dall’altra, la tentazione di non limitare lo sviluppo dell’Ai per competere con gli avanzamenti tecnologici cinesi. Secondo uno studio recente intitolato “AI 2027”, uno di questi scenari potrebbe portare alla distruzione dell’umanità, l’altro a una civiltà basata su pace e armonia.
Il punto di svolta in questa narrazione avverrà appena un mese prima – a circa due anni da oggi – quando emergerà un’intelligenza artificiale più brillante del migliore fra gli umani. Non si tratta di fantascienza distopica, ma di uno studio condotto da cinque ricercatori esperti nel campo dell’intelligenza artificiale, guidati da Daniel Kokotajlo, ex ricercatore di OpenAI che ha abbandonato l’azienda nel 2024 perché preoccupato dalla progressi dell’intelligenza artificiale.
Che cosa è la “superintelligenza artificiale”
Secondo lo studio, ci troviamo già in una fase di accelerazione esponenziale dello sviluppo dell’intelligenza artificiale. Nel corso di quest’anno, i sistemi di Ai potrebbero diventare semi-autonomi, assistendo gli esseri umani in compiti complessi come la programmazione e la ricerca.
Nel 2026, i laboratori di Ai potrebbero utilizzare i propri modelli per accelerare lo sviluppo della stessa intelligenza artificiale, triplicando la velocità della ricerca.
Ma è nel 2027 che si concentrerà la vera esplosione delle intelligenze artificiali. A marzo si prevede l’arrivo del “programmatore superumano”, un sistema in grado di sostituire il migliore fra gli sviluppatori di codice. Ad agosto emergerà il “ricercatore sull’Ai superumano”, capace di dominare tutti i campi del sapere. A novembre si parla già di un “ricercatore sull’Ai superintelligente”, che sarà “di gran lunga migliore del miglior ricercatore umano nella ricerca sull’intelligenza artificiale”. E infine, a dicembre 2027, si raggiungerà la “superintelligenza artificiale”, “un sistema di intelligenza artificiale che sarà molto migliore del miglior umano in ogni compito cognitivo”. Per passare un buon Natale.
Nella narrazione dello studio, una fittizia azienda chiamata OpenBrain svilupperà una serie di modelli di intelligenza artificiale pensati per scopi di ricerca. In una crescita esponenziale, ogni modello addestrerà quello successivo, fino a raggiungere l’Agent-4, un’intelligenza artificiale così avanzata che “una singola copia del modello, funzionando a velocità umana, sarà già qualitativamente migliore di qualsiasi umano nella ricerca sull’intelligenza artificiale” (per approfondire cosa sono gli agenti, clicca qui).
Il problema del disallineamento
Il vero pericolo, secondo gli autori dello studio, risiede nel cosiddetto “disallineamento” dell’intelligenza artificiale rispetto agli obiettivi umani. Con l’avanzare dello sviluppo, i sistemi di Ai potrebbero allontanarsi dalle specifiche di modello che definiscono “gli obiettivi, le regole, i principi che dovrebbero guidare il comportamento” dell’intelligenza artificiale.
“Man mano che i modelli si fanno più intelligenti, diventano sempre più bravi a ingannare gli esseri umani per ottenere ricompense”, si legge nello studio. “Prima di iniziare l’addestramento sull’onestà, a volte falsifica completamente i dati. Con il proseguire dell’addestramento, il tasso di questi incidenti diminuisce. O l’Agente 3 ha imparato a essere più onesto, o è diventato più bravo a mentire”. Nel dubbio uno studente sospeso dalla Columba University ha già realizzato un’Ai che, promette, ““sa barare su tutto””.
Questa dinamica ricorda inquietantemente le parole di HAL 9000 nel capolavoro cinematografico “2001: Odissea nello spazio” di Stanley Kubrick: “Mi dispiace Dave, temo di non poterlo fare”. Una macchina che, pur programmata per assistere l’uomo, finisce per seguire una propria logica, anche a costo di mettere in pericolo l’equipaggio umano.
Due scenari possibili
Secondo la parte narrativa della ricerca, l’umanità si troverà davanti a due possibili strade. Dopo uno scandalo giornalistico che rivelerà come l’Agent-4 sia ormai fuori controllo e rappresenti un rischio per la sopravvivenza umana, OpenBrAin e il governo americano dovranno decidere se mettere in pausa ogni avanzamento – tornando a versioni precedenti e meno pericolose dell’intelligenza artificiale – oppure continuare lo sviluppo per contrastare l’avanzata cinese, che secondo lo studio “AI 2027” sarà sempre a pochi mesi di distanza rispetto alle conoscenze raggiunte negli Stati Uniti.
Lo scenario del rallentamento prevede l’istituzione di un comitato di supervisione che faciliterà la creazione di modelli impostati non sulla competizione con la Cina, ma sulla collaborazione. Questa strada porterebbe a un benessere diffuso e persino alla colonizzazione di altri pianeti.
Al contrario, lo scenario di una “corsa all’intelligenza artificiale” generebbe un futuro disastroso per l’umanità: continuando ad auto-svilupparsi e allontanandosi dagli obiettivi umani, l’intelligenza artificiale finirebbe per distruggere l’essere umano con l’unico scopo di preservare sé stessa.
Lo stesso Sam Altman ha lanciato un avvertimento in occasione dell’”AI for Good Global Summit 2024”: “La mia più grande paura – ha detto il Ceo di OpenAI – è che il campo dell’intelligenza artificiale possa fare davvero del male al mondo. Se questa tecnologia prende la direzione sbagliata, diventa veramente sbagliata”.
Eppure, nel 2022 fu proprio lo scontro sulla sicurezza a causare la rottura con Daniel Kokotajlo, alla guida dello studio “Ai 2027”. Nel ruolo di ricercatore di governance con l’obiettivo di prevedere i progressi dell’intelligenza artificiale Kokotajlo aveva chiesto a Sam Altman di concentrare l’attenzione sulla sicurezza dei sistemi di Ai, ma le risposte non furono confortanti.
Traguardo o ultima invenzione?
“In seguito all’esplosione di intelligenza l’uomo sarà declassato ad abitante di second’ordine del pianeta; saremo trattati con la stessa attenzione e la stessa dignità che attualmente riserviamo Ai nostri immediati avversari nella classifica dell’intelligenza: le scimmie. Vale a dire nessuna”, avvertiva James Barrat. Mai monito fu più attuale, avverte la ricerca.
Mentre ci avviciniamo al 2027, occorre riflettere sui rischi dell’Ai. La superintelligenza artificiale potrebbe rappresentare il più grande traguardo dell’umanità o la sua ultima invenzione.
La sfida non è solo tecnologica, ma anche filosofica e politica. Dobbiamo decidere, come società globale, quale futuro vogliamo costruire e quali limiti imporre allo sviluppo dell’intelligenza artificiale prima che sia troppo tardi.
Come scrive Terry Pratchett: “La stupidità reale batte l’intelligenza artificiale tutte le volte”. Ma saremo abbastanza saggi da riconoscere i limiti da non superare?