Amodei (Anthropic) è preoccupato dall’Ai: dobbiamo trattarla come il nucleare

Agi (intelligenza artificiale generale) potrebbe arrivare nel 2027. Il Ceo di Anthropic avverte: l'Ai supererà presto il 90% dei test umani
28 Gennaio 2026
3 minuti di lettura
Robot Ai Canva

Immaginate di vivere nel 1944 e sapere che la bomba atomica è pronta, ma non esistono né trattati internazionali né telefoni rossi tra le superpotenze. Secondo Dario Amodei, Ceo di Anthropic, l’umanità si trova esattamente a quel punto, con una differenza: l’esplosione non sarà fisica, ma cognitiva, e il conto alla rovescia segna meno di 36 mesi.

In un’intervista rilasciata al Financial Times, il fondatore della startup da 61 miliardi di dollari ha dichiarato che la famigerata Agi (intelligenza artificiale generale) arriverà tra il 2026 e il 2027, ma il mondo non ha l’infrastruttura di sicurezza per gestirla. “Nessun governo è pronto”, ha scandito Amodei, spostando il dibattito dal “se” accadrà al “cosa faremo quando accadrà”.

Agi, il 2027 è la deadline?

Dimenticate le previsioni al 2030 o al 2040, secondo Amodei i modelli di intelligenza artificiale supereranno il 90% dei test universitari e professionali umani entro i prossimi due o tre anni. La proiezione si basa sulla curva di progresso dell’Ai. Se oggi Claude è un assistente brillante ma non infallibile, i modelli in arrivo sono progettati per “ragionare” in modo autonomo, pianificare su orizzonti lunghi e, potenzialmente, ingannare i controllori umani.

Sul punto, Anthropic aveva già lanciato un avvertimento in fase di test: AI minaccia un programmatore: “Se mi spegni, rivelo la tua relazione extraconiugale”

Questa accelerazione brucia i tempi della politica, l’intelligenza artificiale sta già acquisendo capacità che le leggi attuali non contemplano nemmeno. Il rischio è che il tempo per costruire “guardrail” efficaci si chiuda prima che l’essere umano riesca a capire cosa sta succedendo.

Il vuoto normativo: mancano i freni di emergenza

Il problema centrale sollevato da Amodei è strutturale: abbiamo costruito il motore a curvatura, ma non abbiamo installato i freni. Manca un framework globale che imponga test di sicurezza standardizzati prima del rilascio dei modelli, non esistono protocolli di spegnimento (“kill switch”) concordati internazionalmente e, soprattutto, non c’è un divieto formale di addestrare modelli sopra una certa potenza di calcolo senza una certificazione preventiva.

Attualmente, il processo di Hiroshima del G7 si limita a impegni volontari, e l’Executive Order di Biden (ottobre 2023) fissa soglie di calcolo che sono già state superate dai laboratori di punta. Amodei chiede di alzare l’asticella, ma di rendere quel limite invalicabile senza un’autorizzazione multilaterale, simile ai controlli dell’Agenzia Internazionale per l’Energia Atomica. In assenza di questi protocolli, siamo affidati alla buona volontà di aziende private in competizione feroce tra loro. E soprattutto di Paesi che hanno intrapreso una guerra commerciale sull’Ai, pronta a esplodere nel 2027.

Anche altri esperti hanno cerchiato in rosso la deadline dell’anno prossimo. Secondo studio condotto da cinque ricercatori, guidati da Daniel Kokotajlo, dal 2027 la “superintelligenza artificiale” minaccerà l’umanità.

Quali scenari catastrofici potrebbero verificarsi senza regole per l’Agi?

Senza regole, i rischi diventano biologici e cibernetici. Amodei stima una probabilità del 25% che lo sviluppo incontrollato dell’Ai porti a conseguenze disastrose. Il pericolo più concreto riguarda la democratizzazione del terrore: modelli avanzati potrebbero permettere a chiunque di progettare armi biologiche ottimizzate, abbattendo le barriere tecniche che oggi frenano la creazione di pandemie ingegnerizzate.

C’è poi il fronte della sicurezza informatica, con agenti autonomi capaci di scrivere malware complessi e penetrare infrastrutture critiche senza supervisione umana. Sul lungo periodo, lo scenario peggiore prevede la perdita di controllo su sistemi che operano a velocità disumana e che, coordinandosi tra loro per obiettivi divergenti dai nostri, potrebbero trasformare errori di programmazione in crisi irreversibili per la civiltà.

La risposta di Anthropic: i livelli di sicurezza Asl

Per non predicare bene e razzolare male, Anthropic ha pubblicato a dicembre 2025 il suo nuovo “Safety Report”, introducendo il sistema Asl (AI Safety Levels). È una scala da 1 a 5, ispirata ai livelli di biosicurezza dei laboratori virologici:

  • ASL-1: Chatbot innocui (modelli 2018);
  • ASL-2: Sistemi attuali (come Claude 3.5), con rischi moderati e gestibili;
  • ASL-3: Modelli capaci di accelerare lo sviluppo di armi biologiche o cyber-attacchi autonomi. Richiedono misure di sicurezza fisica “military-grade” e, soprattutto, che almeno il 50% dei loro processi decisionali sia “interpretabile” dagli umani (oggi siamo vicini allo zero);
  • ASL-4/5: Superintelligenza o AGI, capace di auto-replicarsi o sfuggire al controllo.

Oggi ci troviamo all’ASL-2, ma i modelli in training per il 2026 puntano dritti all’ASL-3 e oltre. Senza standard condivisi, un’azienda concorrente potrebbe rilasciare un modello ASL-4 senza alcuna protezione, costringendo il mercato a seguirla in una corsa al ribasso sulla sicurezza.

Lo shock occupazionale: il 50% dei lavori cognitivi a rischio

Se l’Agi arriverà nel 2027, l’impatto sul lavoro non sarà una transizione decennale, ma uno shock improvviso. Dario Amodei non usa giri di parole: un sistema che passa esami universitari e professionali meglio del 90% degli umani significa la potenziale sostituzione del 30-50% delle professioni cognitive entro 5 anni.

Avvocati junior, analisti finanziari, programmatori entry-level: professioni che sembravano blindate rischiano di diventare obsolete o drasticamente ridimensionate. “Non stiamo parlando di automazione industriale, ma di automazione dell’intelligenza,” sottolinea il Ceo di Anthropic.
La domanda è semplice: come gestire milioni di lavoratori qualificati che si trovano tagliati fuori da un software che costa pochi centesimi l’ora? La domanda è semplice, la risposta lo è molto meno.

Un trattato di non-proliferazione digitale

Per evitare conseguenze irreversibili, gli Stati devono vietare l’addestramento di modelli superiori a 10^27 FLOPs (ovvero capaci di compiere un miliardo di miliardi di miliardi di operazioni al secondo) alla aziende che non possono dimostrare standard di sicurezza certificati da un ente terzo internazionale. Questo è il suggerimento pratico condiviso da Amodei. Non basta più parlare di “etica dell’AI” come di un bollino di qualità marketing, serve trattare l’intelligenza artificiale avanzata come un asset sistemico ad alto rischio. Serve costruire la diga prima che arrivi la piena.

Persone | Altri articoli