Chiede il numero della compagnia ferroviaria a Meta Ai, riceve il contatto di un privato

L’incredibile storia dall’Inghilterra
20 Giugno 2025
4 minuti di lettura
Mark Zuckerberg Fact Checking Fotogramma
Mark Zuckerberg annuncia la fine del fact checking_fotogramma

Un utente ha chiesto a Meta Ai il numero di telefono di una compagnia telefonica, ma l’intelligenza artificiale di Zuckerberg gli ha fornito il contatto personale di un utente del tutto estraneo alla vicenda.

Il viaggiatore inglese, di nome Barry Smethurst, ha chiesto supporto al chatbot di WhatsApp perché il mezzo non era ancora arrivato in stazione e lui non sapeva quando sarebbe giusto alla sua meta. Solo che Meta, questa volta con la iniziale maiuscola, ha trasformato il più classico dei problemi di chi prende il treno in una enorme falla per la privacy dei dati personali ‘rubati’ dall’intelligenza artificiale.

Meta Ai e i rischi per la privacy

Come riporta The Guardian, Smethurst aveva chiesto a Meta AI il numero di telefono della TransPennineExpress, la compagnia ferroviaria che gestisce alcuni servizi passeggeri regionali nel Regno Unito, ma quando ha ricevuto il numero si è accordo che qualcosa non era andato per il verso giusto. Il numero di telefono cellulare sembrava quello di un privato, non quello di un’azienda. In effetti, ilrecapito apparteneva a un manager del settore immobiliaredel tutto estraneo alla vicenda. Ma come ha fatto Meta Ai a prendere quel contatto? L’unica ‘spiegazione’ è che l’imprenditore aveva messo il suo numero di telefono sul sito della propria azienda e aveva poi iscritto lo stesso numero a WhatsApp per gestire i rapporti e le richieste della propria clientela. Che però cerca case e non informazioni sui treni in ritardo.

A quel punto Smethurst ha chiesto spiegazioni a Meta AI, che ha ammesso l’errore e ha immediatamente cercato di cambiare argomento: “Concentriamoci sulla ricerca delle informazioni corrette per la tua richiesta su TransPennine Express”, dimostrando i grossi limiti dell’intelligenza artificiale nell’affrontare questo tipo di situazione. Forse l’Ai pensava di simulare correttamente il comportamento umano, ma non ha avuto la furbizia che avrebbe avuto una persona scoperta a compiere un errore così grave e grossolano.

I maldestri tentativi di nascondere l’errore

In un lungo botta e risposta con l’utente, l’intelligenza artificiale di Meta ha cercato più volte di giustificare l’errore. Prima ha detto di avere generato il numero “sulla base di pattern” dei numeri britannici, poi ha persino negato che il numero fosse realmente “associato a qualcuno”. Meta Ai ha ammesso di averlo “recuperato per errore da un database” solo quando è stata messa alle strette dalle insistenti domande dell’utente. Piuttosto che intelligente, l’atteggiamento adottato dal chatbot assomiglia a quello di un bambino che pensa di poter distrarre gli occhi di sua madre da quel vaso mandato in frantumi cinque secondi prima.

Meta Ai, non è la prima volta che condivide un numero privato

L’episodio della compagnia ferroviaria non è isolato. Meta Ai ha già dimostrato la tendenza a “ricordare” informazioni che dovrebbero restare private. Il giornalista Rob Price di Business Insider ha vissuto un’esperienza simile quando il suo numero personale è apparso nelle risposte del chatbot come se fosse il contatto diretto dell’intelligenza artificiale. Price si è trovato sommerso da messaggi in spagnolo di utenti convinti di chattare con l’AI.

Anche in quel caso, la spiegazione di Meta non si è fatta attendere: l’AI “è stata addestrata su informazioni pubblicamente disponibili su Internet”, ha spiegato. Quindi un numero di telefono presente in un articolo online o in un profilo professionale diventa automaticamente “pubblico” e quindi utilizzabile dall’Ai? La risposta pare evidente.

Perché l’Ai memorizza informazioni private

I modelli di intelligenza artificiale si nutrono di dataset enormi, spesso contenenti informazioni personali raccolte senza il consenso esplicito degli interessati. Questa “memorizzazione” involontaria può portare alla riproduzione di dettagli sensibili, inclusi numeri di telefono, indirizzi email e persino informazioni mediche o finanziarie.

Entro il 27 maggio, gli utenti potevano opporsi all’utilizzo della propria attività social per addestrare Meta Ai. Oggi è ancora possibile opporsi al trattamento dei propri dati, ma solo per l’attività futura e, quindi, non in maniera retroattiva. In ogni caso, il problema si ingrandisce se si considera che molti di questi dataset non sono stati originariamente raccolti per scopi di addestramento Ai. La trasparenza e il consenso, pilastri fondamentali delle normative sulla privacy, diventano praticamente impossibili da gestire quando si tratta di milioni di record.

Le conversazioni finite nel feed pubblico

Parallelamente al caso del numero di telefono, Meta Ai sta affrontando un’altra crisi di privacy: le conversazioni private degli utenti che finiscono nel feed pubblico “Discover”. Dettagli medici, confessioni personali, indirizzi di casa e persino documenti legali sono stati esposti pubblicamente a causa di un’interfaccia confusa che porta gli utenti a condividere involontariamente contenuti sensibili.

Secondo Rachel Tobac, ceo dell’azienda di cybersecurity Social Proof Security, il problema sta nel modo in cui è stata concepita l’app: “Se sono in grado di vedere utenti che ammettono inavvertitamente crimini federali e postano foto dei loro figli svestiti sul feed di Meta AI Discover Prompt, è chiaro che non hanno capito come funziona”, ha scritto l’esperta su X.

Tobac ha quindi rivolto un appello diretto all’azienda di Zuckerberg: “Mettete in pausa il prodotto, introducete una privacy forte e chiara e aiutate gli utenti a correggere i loro post accidentali”. Anche Mozilla Foundation ha chiesto a Meta di chiudere immediatamente il feed Discover fino all’implementazione di adeguate protezioni della privacy.

Le 4 categorie di rischio per i cittadini

Gli esperti identificano quattro categorie principali di rischio:

  • raccolta non autorizzata di dati;
  • esposizione a bias algoritmici;
  • mancanza di trasparenza;
  • vulnerabilità della sicurezza.

Sull’ultimo punto giova ricordare che, solo un mese fa, il ricercatore Jeremiah Fowler ha individuato una delle più grandi violazioni nella storia della cybersecurity: un database da 47Gigabyte accessibile liberamente online. Nessuna password, nessuna crittografia, solo un grande foglio bianco con sopra scritte milioni di credenzialiUna falla clamorosa che espone gli utenti di tutto il mondo al furto d’identità e frodi digitali.

Questi rischi si amplificano quando i sistemi operano su scala globale, processando miliardi di interazioni quotidiane senza adeguati controlli di qualità.

Bruno Gencarelli, candidato preferito per il ruolo di Garante europeo della protezione dei dati, potrebbe avere il compito di supervisionare l’applicazione di queste normative nelle istituzioni europee, incluso l’utilizzo dell’Ai. Il suo mandato si estenderà alla supervisione dei sistemi di intelligenza artificiale, richiedendo un equilibrio delicato tra innovazione tecnologica e protezione dei diritti fondamentali. D’altronde, l’Ai ha già dimostrato che, se messa alle strette, sarebbe capace di rivelare qualsiasi cosa, incluse le relazioni amorose segrete degli utenti.

Ogni numero di telefono sbagliato, ogni conversazione esposta pubblicamente, ogni dato personale mal gestito rappresenta non solo una violazione della privacy ma anche un campanello d’allarme per una società che deve imparare a convivere con questa tecnologia senza sacrificare i propri diritti fondamentali.

Persone | Altri articoli