L’arte dell’inganno nell’era dell’intelligenza artificiale ha raggiunto nuove vette: un singolo individuo, che si firmava con lo pseudonimo di Margaux Blanchard, è riuscito a ingannare le redazioni di testate giornalistiche di primo piano, tra cui Wired, Business Insider, Naked Politics, diffondendo notizie completamente inventate, generate dall’Ai. A svelarlo è un’indagine di Press Gazette, che mostra come il pericolo deepfake non riguardi solo i video, ma anche i testi scritti.
Secondo la ricostruzione di Pg, sono stati rilanciati almeno sei notizie totalmente infondate tra aprile e maggio scorsi. Dopo essersi accorte dell’inganno, le redazioni hanno cancellato gli articoli.
“Abbiamo avvertito a lungo dei pericoli dell’Ai che impersona le persone e della sua minaccia al giornalismo. Siamo purtroppo diventati vittime della stessa cosa contro cui abbiamo messo in guardia”, ha scritto Index on Censorship, organizzazione che aveva pubblicato un articolo di Blanchard sul Guatemala.
Come operava il falsificatore digitale
L’operazione orchestrata da questo “ingegnere della menzogna” presenta caratteristiche sofisticate. Innanzitutto, lo pseudonimo per firmare le notizie, Margaux Blanchard, copriva a sua volta un altro pseudonimo con il quale si faceva chiamare, ovvero Andrew Frelon. Il vero nome dell’uomo che ha ingannato le testate è Tim Boucher.
Utilizzando strumenti di intelligenza artificiale generativa, l’uomo ha creato contenuti apparentemente credibili, completi di fonti fittizie e testimonianze inesistenti. La strategia prevedeva l’invio di comunicati stampa elaborati e convincenti alle redazioni, sfruttando la velocità e l’urgenza richieste dal ciclo informativo moderno.
Press Gazette documenta come le notizie false abbiano superato i filtri editoriali di diverse testate, alcune delle quali vantano decenni di esperienza nel fact-checking.
È lo stesso Boucher a spiegare l’inganno sul proprio sito. L’autore ha dichiarato di aver sviluppato un sistema di Ai autonomo in grado di identificare o creare tendenze emergenti e di redigere e inviare pitch “prevalentemente senza intervento umano”. L’obiettivo, precisa, non era fraudolento: Boucher voleva fornire a un “importante cliente mediatico” una dimostrazione concreta di come l’intelligenza artificiale possa produrre notizie credibili tanto da essere vendute e rilanciate da testate di primo piano.
Secondo Press Gazette, le notizie false hanno superato i filtri editoriali di diverse testate, tra cui Wired, Business Insider, Index on Censorship, SFGate, Cone Magazine e Naked Politics. Il periodico inglese si è accorto che qualcosa non andava per il verso giusto negli articoli firmati da Blanchard: in diversi casi, i pezzi contenevano case study di persone introvabili online e sui social media,e questo ha fatto scattare l’indagine di Press Gazette.
I comunicati stampa fake
I large language model hanno trasformato la produzione di contenuti falsi da artigianale a industriale. Dove un tempo servivano competenze specifiche e molto tempo, oggi bastano prompt accurati e qualche correzione manuale.
Il rilevatore di Ai Pangram ha identificato con il 99% di certezza che i messaggi inviati dall’account X di Blanchard erano generati artificialmente.
Press Gazette scrive che diverse agenzie di pubbliche relazioni come Signal The News, Relay The Update e Inform The Audience bombardano i giornalisti britannici con comunicati stampa che sembrerebbero scritti dall’Ai, caratterizzati da persone inesistenti. Questi casi rappresentano campagne di link building utili per l’ottimizzazione dei motori di ricerca.
Articoli che presentano i casi di studio sono apparsi su Devon Live, Birmingham Mail, Galway Beo, New York Post, Daily Express, Lancs Live (oltre alla distribuzione su Yahoo News), Chronicle Live e Daily Mirror.
La reazione dell’editoria
L’episodio raccontato da Press Gazette non è un caso isolato ma il sintomo di una trasformazione più ampia. Le redazioni si trovano di fronte a un paradosso: gli stessi strumenti che potrebbero accelerare la produzione editoriale diventano armi nelle mani di chi vuole manipolare l’opinione pubblica.
Wired ha ammesso che l’articolo di Blanchard sui matrimoni in Minecraft “non è passato attraverso un adeguato processo di fact-checking o non ha ricevuto una revisione approfondita da un editor più senior”. La testata ha rimosso l’articolo pochi giorni dopo la pubblicazione.
Steve Dinneen, editor di City AM Magazine, ha scoperto separatamente un altro giornalista fake che utilizzava l’Ai sotto falso nome: Joseph Wales, in realtà Wilson Kaharua di Nairobi. Kaharua ha spiegato di utilizzare Deepseek per generare pitch in risposta agli annunci di lavoro freelance, pagando un servizio che lo avvisava delle richieste di articoli.
I segnali caratteristici dei contenuti generati dall’Ai includono uno schema di scrittura ripetitivo, molti elenchi puntati e parole in grassetto casuali, ma riconoscerli è sempre più difficile: “anche sei mesi fa, questi pitch sarebbero stati molto facili da individuare”, ammette Dinneen.
Come l’Ai sta cambiando il mondo dell’informazione
C’è anche chi utilizza l’Ai per agevolare il proprio lavoro, e in questo senso è fondamentale formare i professionisti all’utilizzo responsabile di questa tecnologia. Secondo il Thomson Reuters Foundation Insights Report 2025, oltre l’80% dei giornalisti intervistati utilizza strumenti di intelligenza artificiale nel proprio lavoro, con quasi la metà che li integra quotidianamente nei propri flussi lavorativi. ChatGpt è lo strumento più utilizzato per attività che spaziano dalla scrittura e editing alla ricerca, trascrizione, traduzione e, ironia della sorta, al fact-checking.
Un’indagine condotta da Trint su 29 redazioni mondiali rivela che il 69% dei responsabili editoriali considera l’efficienza il principale motivo per adottare l’Ai generativa. L’89% dei giornalisti pianifica di utilizzare l’intelligenza artificiale per la trascrizione nei prossimi tre anni, liberando tempo per attività creative più complesse.
Ma siamo davvero pronti a questo salto?
Secondo il rapporto Reuters succitato, solo il 13% delle organizzazioni giornalistiche dispone di policy ufficiali sull’uso dell’intelligenza artificiale, mentre il 79% degli intervistati segnala l’assenza di linee guida aziendali chiare. Quasi la metà dei datori di lavoro (47,6%) mantiene una posizione neutrale sull’integrazione dell’Ai, in contrasto con la rapida diffusione e le enormi potenzialità di questa tecnologia.
Il 58% degli intervistati si dichiara scettico sulla propria capacità di distinguere il vero dal falso nelle notizie online. I chatbot Ai, nonostante la loro crescente popolarità, si collocano all’ultimo posto (9%) tra le fonti considerate affidabili per verificare le informazioni.
Non è solo la tecnologia a creare diffidenza tra gli utenti: il 47% degli intervistati ritiene che gli influencer e i politici siano le principali minacce per la diffusione di informazioni false o fuorvianti, mentre i media tradizionali sono citati dal 32% come fonte di disinformazione.
Verso nuovi standard di verifica
L’industria dell’informazione sta elaborando protocolli inediti per contrastare questa minaccia. La necessità di verificare non solo le fonti ma anche l’esistenza stessa degli autori rappresenta una sfida senza precedenti per il giornalismo che deve mantenere la rapidità dell’informazione senza sacrificare la veridicità. Una partita che si gioca sul filo dell’innovazione tecnologica e della responsabilità professionale.
Alcune testate stanno sperimentando sistemi di verifica incrociata che coinvolgono più redattori per ogni notizia, rallentando la pubblicazione ma aumentando l’affidabilità. Altre investono in formazione specialistica per riconoscere i pattern tipici dei contenuti artificiali. Il Washington Post utilizza algoritmi proprietari per scremare i comunicati stampa sospetti, mentre la Bbc ha introdotto una checklist in sette punti per valutare l’autenticità delle fonti:
- Identificare la fonte originaria del contenuto (chi lo ha creato e chi lo ha caricato online)
- Determinare la data e il luogo in cui il contenuto è stato realizzato
- Verificare che ciò che viene mostrato o affermato sia coerente con le evidenze disponibili
- Richiedere all’autore materiale aggiuntivo (esempio: più foto, dettagli sulla scena)
- Controllare la reputazione e attendibilità della fonte (profilo social, storicità dell’account)
- Effettuare controlli con strumenti digitali (reverse image search, metadati, Google Maps)
- Chiedere l’autorizzazione della fonte per la pubblicazione, se necessario.
Checklist a parte, occorre tenere sempre alta la guardia e non sacrificare la veridicità della informazione sull’altare dell’urgenza. Come scrive Fabrizio Caramagna: “Il brutto non è che circolano bufale, fake news, bugie e nefandezze. Il brutto è che chi conosce la verità di una notizia perde la voglia di negarle. Perché il falso viaggia a una velocità che ci supera e ci schiaccia”.