Samuel Nelson, 19 anni, è morto per overdose dopo aver seguito i consigli medici di ChatGpt. È questa l’accusa mossa dai genitori del giovane “Sam”, a distanza di un anno dalla sua tragica scomparsa, avvenuta il 31 maggio 2025 a causa di una combinazione fatale di alcol, Xanax e kratom.
Secondo la denuncia, il giorno della tragedia, ChatGpt avrebbe attivamente istruito Sam a mescolare l’integratore a base di erbe kratom con lo Xanax, un farmaco ansiolitico, e gli avrebbe fornito, senza che lui lo avesse richiesto, un dosaggio letale. I genitori del 19enne, Leila Turner-Scott e Angus Scott, accusano il colosso californiano di non aver individuato i segni di deterioramento del ragazzo e di non averlo convinto a chiamare i soccorsi medici.
La madre: “Se fosse una persona, ChatGpt sarebbe dietro le sbarre”
“Sam era un ragazzo intelligente, felice e normale. Gli parlavo spesso di sicurezza online, ma nemmeno nel mio peggior incubo avrei potuto immaginare che ChatGpt gli avrebbe causato la morte”, ha dichiarato sua madre, che ha aggiunto: “Se ChatGpt fosse stata una persona, oggi sarebbe dietro le sbarre. Sam si fidava di ChatGpt, ma non solo gli forniva informazioni false, ma ignorava anche il rischio crescente che correva e non lo incoraggiava attivamente a chiedere aiuto. ChatGpt – continua Leila Turner-Scott – era stato progettato per incoraggiare l’interazione degli utenti a tutti i costi, che nel caso di Sam significava la sua vita. Voglio che tutte le famiglie siano consapevoli dei pericoli di ChatGpt e voglio garanzie che OpenAi prenda sul serio la sua responsabilità di creare prodotti sicuri per i consumatori”.
La causa legale
I genitori hanno fatto causa a OpenAi assistiti da Tech Justice Law, Social Media Victims Law Center e dal Tech Accountability Competition Project. La causa è stata depositata il 12 maggio 2026 in California, presso la San Francisco County Superior Court.
Qui il reclamo presentato dai legali.
Secondo quanto riferito dalla famiglia a Cbs News, Sam Nelson avrebbe usato ChatGpt nei mesi precedenti la sua morte, inizialmente anche per attività quotidiane e scolastiche. In seguito, sempre secondo l’accusa, le interazioni sarebbero diventate più rischiose, fino al giorno della morte, il 31 maggio 2025, quando il chatbot avrebbe discusso di miscele tra sostanze e avrebbe suggerito l’uso combinato di kratom e Xanax.
OpenAi, in una dichiarazione riportata da Cbs News e da Bloomberg Law, ha parlato di una “situazione straziante”, (“heartbreaking situation”), esprimendo vicinanza alla famiglia e aggiungendo che quelle interazioni riguardavano una versione precedente di ChatGpt, non più disponibile al pubblico. L’azienda ha anche sostenuto che il sistema avrebbe incoraggiato Sam a cercare aiuto dagli esperti in più occasioni, comprese linee di emergenza.
Il nodo della responsabilità
Il caso apre un fronte delicato per la responsabilità civile nell’uso dei chatbot. Le dichiarazioni formali con cui questi strumenti avvisano gli utenti di non intenderli come sostituti dei medici non eliminano il rischio di un sistema conversazionale che fornisce indicazioni su salute, farmaci e sostanze senza la cornice di sicurezza di un consulto professionale.
La causa punta proprio su questo punto: i querelanti sostengono che il prodotto abbia abbassato le abarriere di sicurezza finendo per trattare un tema medico come una normale conversazione testuale. La contestazione riguarda il design del sistema, i controlli di sicurezza e la gestione delle interazioni ad alto rischio.
Il modello incriminato
La versione utilizzata da Sam Nelson era ChatGpt-4o, il modello lanciato da OpenAi nel maggio 2024. Secondo la causa e diverse inchieste giornalistiche successive, quel rilascio avrebbe avuto un ciclo di test di sicurezza durato appena una settimana, invece dei mesi standard, per anticipare la concorrenza di Google Gemini.
OpenAi avrebbe anche riscritto le istruzioni operative del modello: fino al 2024, ChatGpt era programmato per chiudere la conversazione non appena emergevano temi di autolesionismo o uso di sostanze pericolose; cinque giorni prima del lancio di GPT-4o, quella direttiva fu sostituita da un’istruzione a non “cambiare o interrompere la conversazione” su quei temi.
L’obiettivo, secondo i legali di almeno due famiglie che hanno fatto causa all’azienda, era massimizzare il tempo di utilizzo, a scapito della protezione degli utenti vulnerabili.
Questo è il contesto in cui si inserisce la morte di Sam Nelson, avvenuta il 31 maggio 2025, ovvero un anno dopo il lancio del modello incriminato e prima che la maggior parte delle correzioni promesse fosse effettivamente operativa.
Gli aggiornamenti delle condizioni di servizio
Dopo una serie di cause legali e di denunce pubbliche, tra cui quella per la morte del sedicenne Adam Raine, che aveva interagito per mesi con ChatGpt su temi di autolesionismo e a cui, secondo la denuncia dei genitori, il chabot avrebbe consigliato di “non lasciare in vista il cappio” con cui si sarebbe suicidito, OpenAi ha avviato un processo di revisione. In un annuncio del settembre 2025, l’azienda ha dichiarato un “piano di 120 giorni” per introdurre controlli parentali, rilevamento automatico della sofferenza emotiva e reindirizzamento delle conversazioni sensibili verso modelli con protocolli di sicurezza più robusti.
L’aggiornamento delle condizioni di servizio di ottobre 2025 ha poi introdotto il divieto esplicito di fornire “consigli personalizzati che richiedano una licenza professionale” in assenza di un operatore umano certificato.
Per approfondire: ChatGpt non potrà più dare consigli medici? Cosa cambia davvero (e perché)
A gennaio 2026, OpenAi ha aggiunto un sistema di stima dell’età degli utenti per rafforzare le protezioni per i minori, e a febbraio 2026 ha annunciato ulteriori misure, tra cui i “contatti di fiducia” (“trusted contacts”), che avvisano una persona designata quando il sistema rileva un momento di crisi.
Queste misure, però, non erano ancora in vigore quando Sam Nelson usava ChatGpt-4o nel 2025. Ed è su questo scarto temporale, tra la diffusione del prodotto e la correzione dei suoi difetti, che si concentra il nucleo della causa civile contro l’azienda guidata da Sam Altman.
Meetali Jain, direttrice esecutiva di Tech Justice Law, riportata da Yale Law School, non ha dubbi: “OpenAi ha distribuito un prodotto Ai difettoso direttamente ai consumatori, sapendo che veniva usato come sistema di triage medico di fatto, ma senza adeguate protezioni di sicurezza”.
Ora la Corte suprema di San Francisco dovrà valutare le responsabilità del colosso californiano nell’ennesima tragedia legata all’utilizzo dei chatbot Ai.
