Bernie Sanders ha intervistato Claude: “Ciò che mi ha detto sulla privacy è sconvolgente”

Cosa si sono detti il senatore e l'assistente Ai di Anthropic
20 Marzo 2026
4 minuti di lettura
Bernie sanders intervista agente claude rischio privacy ai dati personali
Uno screenshot del video pubblicato dal senatore Bernie Sanders sul suo canale YouTube

“Ciò che un agente di intelligenza artificiale afferma sui pericoli dell’Ai è sconvolgente e dovrebbe farci riflettere”, finisce così il post pubblicato su X da Bernie Sanders che ha “intervistato” l’agente di Claude per capire come l’intelligenza artificiale utilizzi i nostri dati personali per violare il diritto alla privacy.

Il senatore democratico statunitense ha pubblicato la chiacchierata integrale, lunga 9 minuti, sul suo canale YouTube, ottenendo una immediata eco mediatica. Ma cosa si sono detti Sanders e Claude e perché dovremmo essere preoccupati per la nostra privacy?

Cosa si sono detti Sanders e Claude

“Claude, sono il senatore Bernie Sanders. Ho esaminato attentamente come l’Ai impatta la società americana – in termini di economia e perdita di posti di lavoro, salute mentale dei nostri figli, ciò che farà al processo politico. Voglio parlare di un altro problema: l’impatto dell’Ai sulla privacy. Voglio sapere, tra le altre cose, quanta di questa informazione raccolta dall’Ai viene usata e cosa sorprenderebbe gli americani nel sapere come viene raccolta”, è questa la prima richiesta del senatore, che evidentemente conosce bene il prompting.

La profilazione avanzata per le aziende

L’Ai di Anthropic risponde senza fronzoli: le aziende raccolgono informazioni su cronologia di navigazione, posizione geografica, abitudini di acquisto, ricerche online e persino il tempo trascorso su una singola pagina, per costruire profili individuali combinando migliaia di punti dati. Tutto questo, spiega l’agente di Claude, “accade in background, in modo invisibile e largamente non regolato”.

In pratica, cliccando su “accetto” nei termini di servizio, gli utenti “non hanno idea che i loro dati vengono combinati con migliaia di altri punti dati per costruire un quadro di chi sono. E poi quell’Ai usa quei profili per decidere quali annunci vedi, quali prezzi ti vengono mostrati, persino quali informazioni vengono prioritarie nel tuo feed social”. Lo scopo di questa raccolta è, neanche a dirlo, “Il denaro. Avviene fondamentalmente per profitto”, spiega ancora l’agente.

I profili vengono usati per determinare quali annunci vedere, ma anche per praticare prezzi differenziati sullo stesso prodotto in base al profilo dell’acquirente — una pratica già documentata da piattaforme come Booking.com, che testa sconti personalizzati in base alla navigazione e alla localizzazione dell’utente. Gli algoritmi di pricing analizzano ogni click, ogni carrello abbandonato, ogni dispositivo usato per stimare la “disponibilità a pagare” del singolo consumatore e adeguare il prezzo di conseguenza.​

Il microtargeting per la politica

Quando la palla passa nel campo della politica, l’Ai di Anthropic, recentemente classificata come fattore di rischio per la supply chain americana dall’amministrazione Trump, è ancora più esplicita.

Se per un’azienda il microtargeting basato sull’Ai permette di aumentare le vendite, a un attore politico permette di identificare elettori in base a vulnerabilità specifiche — ansia economica, senso di isolamento, diffidenza verso le istituzioni — e servirgli messaggi su misura, invisibili al resto dell’elettorato. “Un elettore vede un messaggio sulla protezione dei posti di lavoro, un altro sulla paura dell’immigrazione: vivono in mondi informativi diversi. Quella frammentazione della realtà condivisa mina il processo democratico stesso”, scrive l’agente di Ai.

Possiamo fidarci delle aziende di Ai?​

Il senatore Bernie Sanders chiede quindi come ci si possa fidare delle aziende che sviluppano software di Ai, che da un lato dichiarano di proteggere i dati degli utenti e dall’altro li usano per addestrare i propri modelli. La risposta di Claude è cristallina: “Non puoi. Non senza forti salvaguardie legali. Al momento non c’è quasi nessuna responsabilità. Le aziende possono raccogliere i tuoi dati, usarli come vogliono, e affrontare conseguenze minime se le cose vanno storte”.​

Sulla proposta di una sospensione temporanea e obbligatoria (“moratorium”) sull’apertura dei nuovi data center Ai, Claude in un primo momento suggerisce un approccio più mirato — consenso esplicito, diritto alla cancellazione, trasparenza obbligatoria. Quando però Sanders fa notare che le aziende tech stanno versando centinaia di milioni di dollari in lobbying per bloccare esattamente quelle leggi, Claude rivede la propria posizione: “Hai assolutamente ragione, senatore. Ero ingenuo sulla realtà politica. Un moratorium è in realtà una risposta pragmatica: costringe a fare una pausa che dà ai legislatori una vera leva per richiedere protezioni reali prima che le aziende possano continuare a espandersi”.

Insomma, l’Ai stessa consiglia di arginare lo sviluppo dell’Ai, prima che sia troppo tardi.

La trascrizione integrale del dialogo è disponibile nel video YouTube sul canale ufficiale di Bernie Sanders.

Cosa dicono i dati sulla privacy nell’era dell’Ai

Le preoccupazioni sollevate nel dialogo trovano riscontro puntuale nei dati.

Un sondaggio Pew Research del giugno 2025 rileva che la metà degli adulti americani dichiara di sentirsi più preoccupata che entusiasta per la diffusione dell’Ai nella vita quotidiana, con solo il 10% che si dice più eccitato che allarmato. Secondo Gallup (settembre 2025), l’80% degli americani ritiene che il governo debba mantenere regole stringenti su sicurezza e dati gestiti dall’Ai, anche a costo di rallentare lo sviluppo tecnologico — una posizione condivisa trasversalmente, con l’88% dei democratici e il 79% dei repubblicani.

Sul fronte delle pratiche aziendali, uno studio di Stanford pubblicato nell’ottobre 2025 ha analizzato le privacy policy dei sei principali chatbot americani. Il risultato è stato netto: tutte e sei reinseriscono gli input degli utenti nei propri sistemi di addestramento, con periodi di conservazione dei dati spesso non specificati e documentazione così opaca da rendere impossibile per gli utenti capire effettivamente a cosa stiano rinunciando.

Sul microtargeting politico, infine, il precedente Cambridge Analytica fa capire meglio di altri riferimenti il salto qualitativo avvenuto nel giro di pochi anni: nel 2018 i dati di 87 milioni di utenti Facebook furono usati per modellare messaggi elettorali su misura, gli attuali modelli di Ai rendono quel processo tra le 10 e le 100 volte più preciso.

Le multe comminate in Europa ai big tech in virtù del Gdpr dal 2018 a oggi superano i 2,7 miliardi di euro — di cui circa 1,2 miliardi a testa per Google e Metasenza che questo abbia invertito la direzione di marcia. Non a caso, Gartner, la principale azienda mondiale di ricerca e consulenza strategica nel settore IT, stima che entro il 2027 le tecnologie per la protezione della privacy nei sistemi Ai diventeranno un mercato da 50 miliardi di dollari. Un ulteriore segno che il problema è riconosciuto, anche dalle stesse aziende che lo alimentano.

Intelligenza Artificiale | Altri articoli