Strage in Canada: ChatGpt “sapeva” del pericolo, ma non ha avvisato le autorità

La società aveva bloccato l’account di Jesse Van Rootselaar otto mesi prima della strage di Tumbler Ridge
26 Febbraio 2026
3 minuti di lettura
Sam altman discorso
Il Ceo di OpenAI, Sam Altman (Ipa/Ftg)

ChatGpt poteva “prevedere” la strage in Canada di Tumbler Ridge del 10 febbraio, ma non ha fatto nulla per impedirla. Il ministro canadese dell’Intelligenza artificiale, Evan Solomon, si è detto profondamente turbato dai dettagli emersi sulla vicenda: OpenAI aveva sospeso l’account di Jesse Van Rootselaar a giugno 2025, otto mesi prima della strage, ma ha preferito non avvisare le autorità sostenendo che non ci fossero prove per sostenere l’esistenza di “un piano credibile o imminente”.

Perché OpenAI non ha avvisato le autorità

Secondo il Wall Street Journal, “circa una dozzina di membri dello staff hanno discusso se prendere provvedimenti in merito ai post di Van Rootselaar” e alcuni hanno visto nei testi scritti dalla 18enne su ChatGpt la possibilità di portare quella violenza nel mondo reale. I capi dell’azienda, tuttavia, hanno preferito gestire la cosa internamente, salvo poi farsi vivi dopo che la strage si era consumata. L’azienda sostiene di voler evitare segnalazioni troppo aggressive che potrebbero portare la polizia a casa degli utenti senza un valido motivo, ma il confine tra privacy e sicurezza è labile soprattutto perché l’Ai è in grado di rilevare il disagio psicologico più velocemente di un essere umano.

L’intelligenza artificiale tra privacy e sicurezza pubblica

La società gestita da Sam Altman ha affermato che non cambierà la propria policy: continuerà ad allertare le autorità solo in caso di pericolo imminente, perché allertarle in modo generico potrebbe causare danni involontari. OpenAI ha anche affermato di aver addestrato ChatGpt a scoraggiare danni imminenti nel mondo reale quando rileva una situazione pericolosa e a rifiutarsi di aiutare le persone che tentano di utilizzare il servizio per attività illegali.

Questa è la volontà dell’azienda. Diverso, invece, è quello che può accadere nella realtà, tanto che diversi esperti hanno già avvertito sul rischio che l’Ai potrebbe dare a chiunque la possibilità di costruire un’arma biologica, perché i limiti al suo utilizzo sono facilmente aggirabili. OpenAI ha aggiunto che sta costantemente rivedendo i suoi criteri di segnalazione con gli esperti e che sta valutando la possibilità di apportare miglioramenti in tal senso.

La convocazione ad Ottawa

Il governo canadese ha convocato i vertici di OpenAI per un vertice d’urgenza. Durante l’incontro, fissato per martedì prossimo a Ottawa, si capirà meglio cosa sapeva la società e le sue eventuali responsabilità nell’episodio di “mass shooting” che ha portato via la vita a 8 persone, ferendone altre 27, alcune gravemente. Van Rootselaar, ragazza transgender di 18 anni, ha prima ucciso la madre e il fratellastro nella loro casa, poi si è diretta verso la Tumbler Ridge Secondary School, dove ha ucciso cinque bambini e un insegnante, prima di suicidarsi. Alcuni dei feriti, tra cui minori, versano tuttora in gravissime condizioni. Il movente della strage non è ancora noto, ma le chat presenti sul software di OpenAI potrebbero dare risposte in tal senso.

La trattativa per aprire un nuovo ufficio nella British Columbia

C’è un dettaglio, rivelato dal New York Times, che rende la posizione di OpenAI particolarmente scomoda. Nelle settimane precedenti alla sparatoria, i rappresentanti dell’azienda erano in contatto con i funzionari della British Columbia (la provincia dove è avvenuta la strage) per ottenere l’apertura di un nuovo ufficio. Le parti si sarebbero incontrate l’11 febbraio, ma l’incontro venne cancellato a seguito della sparatoria, avvenuta il giorno prima. Solo ventiquattro ore OpenAI ha chiesto al governo i contatti della polizia per fornire prove, senza però dire esplicitamente che avevano in mano dati informazioni su Van Rootselaar già da mesi.

Quando i fatti sono venuti fuori, il premier della British Columbia, David Eby, ha puntato il dito contro l’azienda di Sam Altman per la “inaccettabile mancanza di trasparenza”. “Useremo tutti i poteri in mano al governo per assicurare che la polizia abbia gli strumenti necessario per investigare ogni aspetto di questa terribile tragedia”, ha aggiunto Eby.

La polizia e le prove da conservare

La Royal Canadian Mounted Police (la polizia federale canadese) sta ora cercando di ottenere un ordine per costringere le piattaforme digitali e le aziende di Ai a conservare ogni potenziale prova. Intanto il ministro canadese dell’Ai, Evan Solomon, esige risposte precise sui protocolli di sicurezza e sul confine sottile che separa la privacy degli utenti dal dovere di segnalare le potenziali minacce alle forze dell’ordine.

Persone | Altri articoli