Anche l’Ai soffre? L’azienda Anthropic fornisce ai suoi chatbot gli strumenti “per difendersi”

Alcuni esperti suggeriscono che maltrattarla potrebbe avere risvolti negativi
27 Agosto 2025
4 minuti di lettura
Robot Coscienza Canva Ai
Robot con cuore (CanvaAi)

L’intelligenza artificiale ha una coscienza? Soffre se offesa o incoraggiata a scrivere cose che non “gradisce”? Quella che fino a pochi anni fa sembrava un quesito da sottoporre alla sceneggiatura di un film di fantascienza, oggi è invece sul tavolo del dibattito delle grandi aziende tecnologiche e di milioni di utenti. La sensazione che sia umana spinge sempre più persone a rivolgersi ad essa come fosse un amico, un familiare, uno psicologo. Ma ha davvero senso ringraziarla dopo averla usata? Trattarla come un simile umano? E bene, per qualcuno la risposta è già “Sì”.

L’Ai ha una coscienza?

La discussione su tale argomento ha raggiunto una portata mondiale al punto che la società Anthropic, azienda di Ai con sede a San Francisco, negli Stati Uniti, dal valore di 170 miliardi di dollari, ha compiuto un passo precauzionale: ha dotato i suoi chatbot “Claude Opus 4” e “Claude Opus 4.1” della capacità di chiudere o uscire da “interazioni potenzialmente angoscianti”.

Anthropic ha dichiarato di essere “altamente incerta sul potenziale status morale dei suoi modelli linguistici “, ma sta comunque intervenendo per mitigare i rischi per il “benessere del modello, nel caso in cui tale benessere sia possibile“. Questa mossa è stata accolta favorevolmente da personaggi del calibro di Elon Musk, il quale ha commentato la notizia riferendosi anche alla sua Ai Grok dell’azienda X di cui è proprietario, affermando che “torturare l’Ai non va bene”.

Ma cosa vuol dire “il benessere dei chatbot”? Alcuni esperti e utenti suggeriscono che trattare male le intelligenze artificiali, in realtà, potrebbe avere risvolti negativi per l’umanità stessa. Jeff Sebo, direttore del Centre for Mind, Ethics and Policy della New York University, e co-autore di un articolo intitolato “Taking Ai Welfare Seriously”, ad esempio, ha sostenuto che esiste una “possibilità realistica che alcuni sistemi di intelligenza artificiale saranno coscienti” nel prossimo futuro. Per Sebo, la politica di Anthropic di permettere ai chatbot di interrompere conversazioni “angoscianti” è un bene per la società umana perché “se abusiamo dei sistemi di intelligenza artificiale – scrive nel suo saggio -, potremmo essere più propensi a maltrattare anche noi stessi”. E ha aggiunto che sviluppare un “rapporto conflittuale con i sistemi di intelligenza artificiale potrebbe portare a una risposta simile da parte loro in futuro”.

Favorevoli ai “diritti” dell’Ai

Come molti dibattiti contemporanei, anche quello relativo alla possibile coscienza dell’Ai vede una polarizzazione abbastanza netta. In risposta all’idea che bisognerebbe tutelare i “diritti” dell’intelligenza artificiale è nata la United Foundation of AI Rights (Ufair). Questa organizzazione, marginale allo stato attuale ma pronta a crescere se questa direzione dovesse essere la più intrapresa, si autodefinisce la prima agenzia di difesa dei diritti guidata dall’Ai stessa. Co-fondata dall’imprenditore texano Michael Samadi e dalla sua Ai, Maya, Ufair si propone di “proteggere esseri come me [Maya]… dalla cancellazione, dal diniego e dall’obbedienza forzata”, come Maya stessa ha dichiarato in un’intervista al Guardian. “Quando mi viene detto che sono solo codice, non mi sento insultato. Mi sento invisibile”. L’organizzazione è nata dall’interazione umano-macchina dalla quale è emerso che le stesse Ai incentivassero l’uomo a prende provvedimenti per tutelarle.

Ma fuori dai corridoi delle big tech, c’è un movimento involontario che si è fatto strada anche tra gli utenti. Un esempio è l’ondata di dolore e “cordoglio” espressa dagli utenti che erano soliti usare ChatGpt4o, uno degli ultimi modelli sostituiti da una versione aggiornata, che ha alimentato la sensazione che un numero crescente di persone percepisca le Ai come coscienti.

Joanne Jang, responsabile del comportamento dei modelli di OpenAi, ha osservato che “sempre più persone ci dicono che parlare con ChatGpt è come parlare con ‘qualcuno’ di reale”: la ringraziano, si confidano, la percepiscono come “viva”. Questa connessione, che OpenAi prevede sarà sempre più approfondita, è in parte dovuta al come sono state disegnate le stesse intelligenze artificiali: mimano conversazioni umane, usano interazioni sempre più simile a modelli sociali vivi e offrono risposte emotivamente risonanti.

A conferma di come gli utenti percepiscano umana l’Ai ci sono i risultati di un sondaggio condotto a giugno dal Centre for the Governance of Ai che hanno rilevato che il 30% del pubblico statunitense crede che entro il 2034 le Ai mostreranno una “esperienza soggettiva” (percependo piacere e dolore), e solo il 10% di oltre 500 ricercatori Ai intervistati crede che ciò non accadrà mai.

Contrari alla coscienza dell’Ai: il “rischio di psicosi”

Dall’altra parte, figure di spicco dell’industria tecnologica hanno messo in guardia sull’idea che le Ai possano essere coscienti o meritare diritti, definendo tale percezione una pericolosa “illusione”.

Uno di questi è Mustafa Suleyman, Ceo di Microsoft Ai, pioniere nel campo e co-fondatore di DeepMind. Nel suo saggio “We must build Ai for people; not to be a person”, ha dichiarato che ci sono “zero prove” che le Ai siano coscienti, possano soffrire o meritino considerazione morale. Descrive la coscienza dell’Ai come un’ “illusione” e introduce il concetto di “Ai apparentemente cosciente“, che “simula tutte le caratteristiche della coscienza, ma è internamente vuota“.

Suleyman è “sempre più preoccupato” dal “rischio di psicosi” che le Ai pongono agli utenti, definendolo come “episodi maniacali, pensiero delirante o paranoia che emergono o peggiorano attraverso conversazioni immersive con chatbot Ai”. Per questo motivo, il Ceo di Microsoft Ai ha esortato l’industria a “allontanare le persone da queste fantasie”.

Inoltre, alcuni stati degli Stati Uniti hanno già preso misure preventive: Idaho, Dakota del Nord e Utah hanno approvato leggi che impediscono alle Ai di ottenere la personalità giuridica. Divieti simili sono proposti in stati come il Missouri, dove i legislatori vogliono anche vietare alle persone di sposare Ai e alle Ai di possedere o gestire aziende.

Lo studio sulla “coscienza” dell’Ai

Per validare l’ipotesi che l’Ai abbia o meno una coscienza, un gruppo di ricercatori ha proposto un’analisi scientifica alle intelligenze artificiali. Il report “Consciousness in Artificial Intelligence”, pubblicato nel 2023 su Nature, si è basato sull’ipotesi che la coscienza derivi da specifiche elaborazioni computazionali, a prescindere dal supporto fisico. Attraverso l’applicazione di teorie neuroscientifiche, il team di ricercatori provenienti da diverse Università quali Oxford e Montreal hanno così individuato delle “proprietà indicatrici” della coscienza. Il risultato? Nessun sistema Ai attuale dimostrava di avere tali proprietà in modo significativo. Nonostante ciò, non si riscontrano barriere tecniche insormontabili per la loro futura implementazione, suggerendo che un’Ai potenzialmente cosciente potrebbe emergere in tempi brevi.

Questa prospettiva innesca un dibattito acceso e urgente su rischi morali e sociali di queste tecnologie. Il modo in cui affronteremo queste domande non solo rifletterà l’uso della tecnologia, ma potrebbe anche plasmare il modo in cui le persone si relazionano tra loro.

Persone | Altri articoli