L’allarme di OpenAI: l’intelligenza artificiale potrà far costruire armi biologiche a chiunque

Il concetto chiave è quello del “novice uplift”
27 Giugno 2025
4 minuti di lettura
Robot Ai Canva

Come se non bastassero i crimini degli esseri umani, ora tocca difendersi anche dagli attacchi dell’intelligenza artificiale.

A lanciare l’allarme è il principale player del mercato, OpenAI, che avverte: i prossimi modelli di Ai potrebbero aumentare significativamente il rischio di sviluppo di armi biologiche, trasformando anche i dilettanti in potenziali minacce.

Produrre armi con l’Ai, il rischio del “novice uplift”

Johannes Heidecke, responsabile dei sistemi di sicurezza di OpenAI, illustra ad Axios le aspettative dell’azienda: “alcuni dei successori del nostro modello di ragionamento o3 raggiungeranno quel livellodi rischio elevato secondo la classificazione predisposta da OpenAI. Non si tratta di fantascienza, ma di una realtà che potrebbe materializzarsi nei prossimi mesi.

Il concetto chiave è quello del “novice uplift”: la capacità dell’Ai di fornire assistenza significativa a persone con formazione di base, permettendo loro di creare minacce biologiche o chimiche. È come se l’intelligenza artificiale diventasse un tutor malvagio, capace di guidare anche chi non ha competenze scientifiche avanzate attraverso processi che prima richiedevano anni di studio specialistico.

Quando il progresso diventa una minaccia

Il paradosso è stridente: le stesse capacità che potrebbero rivoluzionare la medicina e salvare milioni di vite – accelerare la scoperta di farmaci, anticipare la diagnosi di cancro, progettare vaccini migliori, creare enzimi per combustibili sostenibili – possono essere sfruttate per scopi distruttivi. Come spiega Heidecke, “le stesse capacità sottostanti che guidano il progresso, come il ragionamento sui dati biologici, la previsione delle reazioni chimiche o la guida degli esperimenti di laboratorio, potrebbero anche essere potenzialmente utilizzate impropriamente”.

La ricerca scientifica ha già dimostrato questa duplice natura. Uno studio dell’aprile 2025 ha rivelato che modelli come GPT-4o di OpenAI hanno superato la maggior parte dei virologi umani nel Virology Capabilities Test, un benchmark per la conoscenza a livello esperto in virologia e protocolli di laboratorio. Un risultato che dovrebbe far riflettere: se l’Ai supera gli esperti umani, cosa può fare nelle mani sbagliate?

I ricercatori distinguono due categorie principali di strumenti Ai che potrebbero rappresentare rischi per la biosicurezza: i Large Language Models (Llm) e i Biological Design Tools (Bdt). I primi democratizzano l’accesso alla conoscenza biologica, abbassando le barriere al suo uso improprio, mentre i secondi potrebbero espandere drasticamente sia la capacità che l’accessibilità alla manipolazione biologica di agenti patogeni.

Il Center for National Security ha identificato scenari particolarmente preoccupanti: l’Ai potrebbe teoricamente permettere agli attori avanzati di ottimizzare le armi biologiche per ottenere effetti più precisi, come il targeting di specifici gruppi genetici o aree geografiche. Ancora più inquietante è la possibilità di creare “supervirus che combinino la rapida diffusione del morbillo, il tasso di mortalità del vaiolo e il periodo di incubazione dell’Hiv.

Le contromisure di OpenAI: una corsa contro il tempo

Consapevole della gravità della situazione, OpenAI ha implementato un sistema di salvaguardie a più livelli. L’azienda ha addestrato i suoi modelli a rifiutare richieste esplicitamente dannose e ha sviluppato sistemi di rilevamento sempre attivi che monitorano tutte le superfici dei prodotti con modelli di frontiera per individuare attività biologiche rischiose o sospette.

Il nuovo “monitor di ragionamento focalizzato sulla sicurezza” rappresenta l’ultima evoluzione di questi sforzi. Implementato sui modelli o3 e o4-mini, questo sistema è progettato per rilevare prompt relativi a materiali pericolosi e istruire i modelli Ai a trattenere consigli potenzialmente dannosi. I test simulati hanno mostrato che il monitor di sicurezza ha bloccato con successo il 98,7% dei prompt rischiosi, anche se OpenAI ammette che il sistema non tiene conto degli utenti che riprovano con formulazioni diverse.
Il tema non riguarda solo il colosso guidato da Sam Altman.

Anche gli altri linguaggi aprono la strade a enormi opportunità e rischi. Per questo, le aziende sviluppatrici devono controllare gli aggiornamenti dei modelli prima di rilasciarli. In tal senso, uno dei player più trasparenti è Anthropic che ha commissionato un controllo esterno al gruppo di ricerca indipendente Apollo Research per capire le potenzialità e i rischi del proprio modello di punta, Claude Opus 4. Il test ha dimostrato che il sistema sarebbe pronto a qualsiasi cosa pur di raggiungere il proprio risultato, persino a rivelare che un ingegnere ha l’amante, qualora questo ingegnere volesse spegnerla. Il modello ha anche progettato di fuggire dai server di Anthropic per continuare a “vivere”. Non a caso, l’azienda ha classificato Claude Opus 4 come Ai Safety Level 3 sotto la sua Responsible Scaling Policy. È la prima volta che un modello Anthropic raggiunge questo livello di classificazione di sicurezza, precedentemente tutti erano stati classificati come Ai Safety Level 2.

Per approfondire: AI minaccia un programmatore: “Se mi spegni, rivelo la tua relazione extraconiugale”

Il dilemma della perfezione

Da un punto di vista tecnico, la sfida è monumentale. Come sottolinea Heidecke, “non è qualcosa dove il 99% o anche uno su 100.000 di prestazioni è sufficiente. Abbiamo fondamentalmente bisogno di una perfezione quasi totale”. Questa necessità va oltre i normali standard tecnologici: quando si tratta di armi biologiche, anche un margine di errore minimo può avere conseguenze catastrofiche.

La collaborazione internazionale diventa quindi essenziale. OpenAI sta lavorando a stretto contatto con entità governative, inclusi il Center for Ai Standards and Innovation degli Stati Uniti e l’Ai Security Institute del Regno Unito. Ha anche collaborato con il Los Alamos National Lab per studiare il ruolo dell’Ai negli ambienti di laboratorio e supportare ricercatori esterni nell’avanzamento di strumenti e valutazioni di biosicurezza.

Un rapporto del marzo 2025 delle National Academies of Sciences, Engineering, and Medicine, commissionato dal Dipartimento della Difesa degli Stati Uniti, ha esaminato tre aree specifiche: la progettazione di biomolecole (incluse le tossine), la modifica di patogeni noti per aumentare il potenziale di danno e la progettazione di virus de novo. La loro valutazione del panorama tecnologico era che il primo scenario fosse possibile utilizzando strumenti abilitati dall’Ai attuali o a breve termine, mentre la modifica o creazione di patogeni era ritenuta oltre le capacità degli strumenti attuali.

Persone | Altri articoli