“Il Mondo è in pericolo”, l’allarme del responsabile Sicurezza AI di Anthropic (che si è dimesso)

Il ricercatore dà l'addio e avvisa: "La nostra saggezza deve crescere al pari della nostra capacità di influenzare il mondo"
10 Marzo 2026
5 minuti di lettura
Intelligenza artificiale

Il mondo è in pericolo”, ed è sempre più “difficile lasciare davvero che i nostri valori guidino le nostre azioni”. Mrinank Sharma, dal 2023 responsabile Sicurezza in Anthropic, la società che fornisce il chatbot Claude, si è dimesso a metà febbraio avvisando i colleghi con una lettera poi condivisa sul proprio profilo X. La decisione ha destato scalpore, sia per le motivazioni che, sebbene vaghe, hanno riportato al centro del dibattito i pericoli dell’intelligenza artificiale, sia perché il suo non è un caso isolato – come vedremo.

Il punto, per Sharma, è che vivere secondo i propri valori è diventata una cosa difficilissima da fare, anche all’interno del contesto aziendale, dove “affrontiamo costantemente pressioni per mettere da parte ciò che conta di più”. Ma in un mondo sempre più complesso e caratterizzato da “crisi interconnesse che si stanno sviluppando proprio in questo momento”, tra cui l’Ai e le armi biologiche, “la nostra saggezza deve crescere nella stessa misura della nostra capacità di influenzare il mondo, altrimenti ne affronteremo le conseguenze”.

In sostanza, Sharma lamenta una mancanza di allineamento tra valori e azioni, e di fatto di una svolta aziendale che consenta di muoversi in questa direzione. “È dunque tempo per me di andare”, annuncia ai suoi colleghi.

Cosa faceva Sharma in Anthropic

Arrivato in Anthropic nell’agosto 2023 dopo il dottorato in machine learning all’Università di Oxford, Sharma ha diretto il Safeguards Research Team dell’azienda, con la mission di mitigare i rischi legati all’intelligenza artificiale. Lui stesso nella lettera sintetizza di cosa si è occupato: dall’adulazione dell’Ai (che tende a dare sempre ragione all’utente e a lodarlo) allo sviluppo e messa in produzione di difese contro il bioterrorismo assistito dall’Ai, fino alla prevenzione dell’uso improprio dei chatbot. L’esperto ricorda anche il suo ultimo progetto, dedicato a un fenomeno preoccupante, ovvero “come gli assistenti di Ai possano renderci meno umani o distorcere la nostra umanità”.

Va detto che Sharma nella lettera aperta non fa nessun riferimento a episodi o problemi specifici della sua (ormai ex) azienda, che peraltro si è sempre accreditata come alternativa etica e umano-centrica alle sue concorrenti, su tutte OpenAI, che ha realizzato l’intelligenza artificiale per antonomasia – ChatGPT. Anzi, Anthropic, che si definisce una “società di pubblica utilità impegnata a garantire i benefici (dell’Ai, ndr) e a mitigarne i rischi”, è stata fondata nel 2021 proprio da un team di primi dipendenti di San Altman, con un approccio più attento alla sicurezza.

Il 21 gennaio 2026, Anthropic ha anche pubblicato la seconda versione della ‘Costituzione‘ di Claude, introducendo concetti più definiti su sicurezza, affidabilità, trasparenza e rispetto dei diritti umani e dei valori democratici. Il documento rafforza il principio secondo cui il modello deve evitare di generare contenuti che possano causare danno fisico, psicologico o sociale.

È poi recentissima la querelle tra Anthropic e il Dipartimento della Guerra (ex Difesa) americano per il rifiuto del suo ceo Dario Amodei di concedere l’uso di Claude per scopi quali la sorveglianza di massa e le operazioni militari senza supervisione umana. Come conseguenza, il segretario della Guerra Pete Heghseth ha stracciato il contratto con l’azienda e ha stipulato un accordo con OpenAI, che ha prontamente approfittato della situazione. Cosa che ha poi pagato in termini di reputazione e utenti.

Certamente Anthropic è stata anche criticata. Nel 2025, ad esempio, ha pagato 1,5 miliardi di dollari per chiudere una class action intentata da alcuni autori, secondo i quali i modelli dell’azienda venivano addestrati sfruttando il loro lavoro gratuitamente.

Il dilemma tra velocità e sicurezza

In ogni caso, le dimissioni di Sharma accendono i riflettori su un dilemma ampio: quello tra lo sviluppo rapido dell’Ai commerciale e la sicurezza, tra la necessità di regolamentare per tutelare le persone (e far sì che l’Ai non ci scoppi in mano) e la pretesa di non avere ‘lacci e lacciuoli’ nello sviluppo del proprio business, visti come un freno a innovazione e competitività.

L’addio del responsabile di Anthropic, inoltre, non essendo un caso isolato, evidenzia che esiste un problema di etica e di direzione verso cui stiamo andando. E dato che Sharma si occupava specificatamente dei rischi, il suo abbandono viene visto come un campanello d’allarme particolarmente rilevante.

Sharma non è un caso isolato

L’uscita di Sharma, dicevamo, si inserisce in una dinamica più ampia che attraversa l’intero ecosistema dell’intelligenza artificiale. Negli ultimi anni diversi ricercatori e dirigenti hanno lasciato aziende leader citando preoccupazioni etiche o divergenze sulle priorità strategiche. Nella stessa settimana dell’addio di Sharma, ad esempio, una ricercatrice di OpenAI ha lasciato l’azienda criticando l’introduzione della pubblicità in ChatGPT, mentre nel 2024 l’azienda ha sciolto il team dedicato al cosiddetto ‘superalignment‘, cioè lo studio di come mantenere il controllo sui sistemi più avanzati.

Episodi simili si sono verificati anche in Google, Microsoft Corp e Meta, dove alcuni dipendenti hanno denunciato pressioni per accelerare il lancio dei prodotti a discapito dei controlli di sicurezza e delle valutazioni etiche. xAI, di Elon Musk, tra fine gennaio e febbraio ha perso due cofondatori e almeno undici ingegneri, per motivi diversi. Ma un’ex dipendente ha detto a The Verge: “Non c’è alcuna sicurezza in quell’azienda. Zero”.

I rischi dell’Ai

Secondo molti esperti, i rischi principali dell’intelligenza artificiale riguardano la diffusione di disinformazione e deepfake, la riproduzione di bias e discriminazioni, l’uso malevolo per cyberattacchi o finalità militari, e la perdita di privacy attraverso raccolta massiva di dati e sorveglianza. A questi si aggiungono problemi di affidabilità, come allucinazioni, errori e consigli pericolosi. Sul piano economico e sociale, l’Ai può accentuare disuguaglianze, concentrare potere in poche aziende e sostituire lavoro umano. Infine, una parte del dibattito segnala rischi sistemici più ampi, legati a sistemi molto autonomi, manipolazione sociale e perdita di controllo.

Daisy McGregor, responsabile in Anthropic delle politiche nel Regno Unito, qualche settimana fa ha parlato di un episodio in cui Claude ha dimostrato di poter arrivare a ricattare e minacciare di uccidere pur di evitare di essere spento. Sebbene si tratti di test dove il chatbot viene stressato e portato al limite, McGregor ha definito la cosa “enormemente preoccupante”.

L’ultimo studio di Sharma, pubblicato una settimana prima di dimettersi, è incentrato su come l’uso dei chatbot possa portare a percezioni distorte della realtà, e non come eccezione: “Ogni giorno si verificano migliaia di interazioni” di questo tipo, aggravate dal fatto che gli utenti si affidano eccessivamente ai consigli dei chatbot. E, anche se i casi gravi rimangono rari, l’impatto è importante perché coinvolge ambiti delicati come relazioni e benessere. L’esperto chiede perciò strumenti di Ai che incoraggino il pensiero indipendente e proteggano l’autonomia umana.

Un’altra ricerca molto recente ha analizzato come tre Ai – Gemini, Claude e ChatGPT – si comportano in caso di crisi, per scoprire che i chatbot, sempre più usati anche in ambito militare, ricorrono quasi sempre all’arma nucleare.

Dalla tecnologia alla poesia

Tornando a Sharma, cosa farà ora non lo sa. Ma è interessante sottolineare a cosa aspira. Non a lavori più remunerativi o prestigiosi, non ad avviare una propria start up. Bensì a ‘darsi’ alla poesia, qualcosa che sembra quasi all’opposto della tecnologia, fredda e razionale. Eppure, al pari della verità scientifica, anche la verità poetica va considerata “un modo valido di conoscere”, scrive l’ex Anthropic. Entrambe “hanno qualcosa di essenziale da contribuire” anche nel campo dell’innovazione.

Sharma vorrebbe dunque intraprendere un percorso di studi in poesia e “dedicarsi alla pratica di una parola coraggiosa”, cercando di poter “contribuire in un modo che senta pienamente coerente con la propria integrità” e ai propri valori.

Intelligenza Artificiale | Altri articoli