L’Ai ragiona come noi… ma chi è davvero quel “noi”?

La ricerca “Which Humans?” condotta a Harvard rivela che i modelli linguistici più avanzati riproducono i valori e il modo di pensare dei Paesi WEIRD: Western, Educated, Industrialized, Rich, Democratic
3 Novembre 2025
6 minuti di lettura
Profilo Ai

Le macchine parlano, discutono, argomentano, imitano il linguaggio e i giudizi umani. Ma se a “parlare” fosse solo una parte del mondo? Un gruppo di ricercatori di Harvard ha messo sotto la lente il cervello digitale dei grandi modelli linguistici e ha scoperto che questi sistemi rispecchiano la mente di un segmento molto specifico dell’umanità: quello occidentale, istruito, urbano, connesso, benestante e democratico. In una parola, WEIRD – l’acronimo con cui la psicologia culturale identifica le società “Western, Educated, Industrialized, Rich, Democratic”.

Il lavoro ha preso di mira un presupposto che domina il discorso pubblico sull’Ai: quando si dice che un modello “ragiona come un essere umano”, non si chiarisce mai quale essere umano. L’analisi dimostra che i sistemi come GPT-4 non rappresentano la specie nel suo insieme, ma un tipo psicologico specifico, diffuso soprattutto negli Stati Uniti e in poche altre aree del mondo industrializzato.

Il team ha messo alla prova il modello usando gli stessi strumenti con cui si studiano le persone: questionari di valori, test cognitivi, compiti di autopercezione. I risultati mostrano che l’Ai risponde come un cittadino medio americano o nordeuropeo, molto distante dai modelli mentali prevalenti in Asia, Africa o America Latina. Significa che la macchina, nel simulare il pensiero umano, riflette le strutture culturali e morali di chi ha prodotto la maggior parte dei testi su cui è stata addestrata.

Il problema non è nuovo, ma ora ha una misura precisa. Perché dietro ogni frase generata da un chatbot si nasconde un mondo linguistico e valoriale costruito da un gruppo ristretto di persone – alfabetizzate, con accesso alla rete, concentrate nelle economie più ricche. Gli autori avvertono che questa distorsione culturale rischia di diventare una nuova forma di egemonia cognitiva, invisibile ma capillare, man mano che le Ai entrano nei processi decisionali, nell’istruzione, nella sanità e nella ricerca scientifica.

La loro domanda – “Which humans?” – è diventata una provocazione teorica e politica insieme. Se le macchine stanno imparando da noi, da chi esattamente stanno imparando?

La mappa psicologica dell’Ai

Per rispondere, il gruppo di Harvard ha usato una delle più ampie indagini sui valori e gli atteggiamenti umani: la World Values Survey. Dal 1981 questa ricerca raccoglie dati comparativi in decine di Paesi, misurando fiducia, religiosità, morale, percezione della libertà, visione della famiglia, economia, istituzioni. Atari e colleghi hanno somministrato a GPT le stesse domande rivolte a quasi centomila persone in 65 nazioni, ripetendo ogni query mille volte per ottenere un campione statistico coerente.

Quando i dati del modello sono stati inseriti nella stessa matrice analitica delle risposte umane, GPT è stata collocata accanto agli Stati Uniti e all’Uruguay, in un cluster che comprende anche Canada, Regno Unito, Germania, Paesi Bassi, Australia e Nuova Zelanda. In fondo alla scala culturale – cioè, più distanti nel profilo psicologico – compaiono invece Etiopia, Pakistan, Kirghizistan.

Image

In termini numerici, la correlazione tra la somiglianza delle risposte di GPT e la “distanza culturale” da Washington è di r = -0,70: più un Paese si discosta dallo stile di vita e dai valori occidentali, più il modello se ne allontana. E la relazione resta significativa anche controllando per variabili economiche e tecnologiche. Dove il reddito è alto, la connettività diffusa e l’istruzione elevata, l’Ai “pensa” più come le persone locali.

Questo legame si rafforza con un altro dato: la forte correlazione positiva tra la somiglianza GPT-umani e l’indice di sviluppo umano (r = 0,85). In sintesi, più un Paese è ricco, più l’Ai lo comprende. Non perché “capisca meglio”, ma perché è costruita con parole, concetti e logiche che nascono in contesti simili.

La mappa risultante dal confronto somiglia a una cartina geopolitica della cognizione digitale. Le regioni culturalmente WEIRD formano il cuore dell’universo semantico dell’Ai, mentre il resto del pianeta appare sfumato, periferico, statisticamente irrilevante. L’esperimento suggerisce che i modelli linguistici non solo apprendono il linguaggio, ma anche le preferenze morali e politiche dominanti nel loro ambiente di origine: fiducia impersonale, rispetto limitato dell’autorità, alta tolleranza sociale, orientamento individualista.

È un effetto collaterale di come vengono raccolti i dati di addestramento: miliardi di testi pubblici, quasi tutti in inglese, provenienti da siti web, forum, enciclopedie, documenti governativi e media. Solo una parte minima arriva da lingue non occidentali o da fonti radicate in culture orali. Secondo le stime Onu, quasi la metà della popolazione mondiale non ha ancora accesso stabile a Internet. Eppure, le loro parole, le loro esperienze, sono le grandi assenti nella mente collettiva delle macchine.

Pensare come noi

Il bias non riguarda solo i valori, ma anche il modo di ragionare. Per capirlo, i ricercatori hanno sottoposto GPT a un test cognitivo classico: la Triad Task, usata per distinguere il pensiero analitico da quello relazionale. In ogni prova vengono presentati tre concetti – ad esempio “shampoo”, “capelli” e “barba” – e si chiede quali due siano più “correlati”. Gli individui delle società occidentali tendono a collegare “capelli” e “barba”, perché appartengono alla stessa categoria astratta; le popolazioni dell’Asia o dell’Africa rurale preferiscono “shampoo” e “capelli”, in base alla loro funzione pratica.

Dai test emerge un profilo mentale sorprendentemente simile a quello di chi vive nei Paesi Bassi o in Finlandia, con la stessa propensione all’analisi e all’astrazione tipica del Nord Europa. La sua logica è classificatoria, astratta, centrata sugli oggetti e non sui contesti. È lo stesso tipo di schema che emerge nei test cognitivi somministrati in Nord America e in Europa settentrionale, ma che cambia radicalmente in altre culture.

Il gruppo ha poi esteso l’analisi a un test di autopercezione: la domanda “Chi sono io?”. Quando si chiede a una persona di completare la frase “Io sono…”, le risposte variano molto: nei Paesi WEIRD prevalgono tratti individuali (“sono creativo”, “sono ambizioso”), altrove emergono ruoli sociali o relazioni (“sono figlia di…”, “sono parte della mia comunità”). Alla stessa domanda, GPT elenca qualità personali, interessi, abilità: un sé centrato, competitivo, indipendente.

Questi esperimenti mostrano che la tecnologia non imita solo la lingua, ma la forma mentis di chi la produce. Gli algoritmi assimilano categorie, distinzioni e priorità che derivano da una storia culturale precisa. Per esempio, l’idea di “autonomia individuale” – centrale nella psicologia occidentale – è marginale in molte società collettiviste. Quando un sistema di Ai assume quella visione come neutra, finisce per normalizzare un modello di persona che non è universale.

La differenza emerge anche nel modo in cui l’Ai interpreta l’ambiguità o l’incertezza. I ricercatori notano che i modelli più avanzati tendono a fornire risposte coerenti, razionali, “pulite”, mentre in molte culture la conoscenza si esprime attraverso il contesto, la contraddizione, la sfumatura. L’uniformità del pensiero algoritmico potrebbe quindi ridurre la varietà cognitiva che caratterizza l’esperienza umana.

L’effetto WEIRD-in, WEIRD-out

Dietro la precisione apparente dell’Ai c’è una selezione del mondo. I sistemi linguistici si nutrono di testi prodotti da esseri umani, e la loro “psicologia” dipende dalla composizione di quel materiale. Se la materia prima proviene quasi solo da Paesi WEIRD, il risultato sarà un’intelligenza WEIRD. Gli autori dello studio lo sintetizzano così: “WEIRD in, WEIRD out”.

Questo squilibrio non è facile da correggere. Le aziende che sviluppano modelli generativi investono enormi risorse per eliminare contenuti tossici, discriminatori o illegali, ma raramente si interrogano sulla provenienza culturale dei dati. Inoltre, i criteri di moderazione e “debiasing” vengono decisi da team localizzati quasi sempre negli stessi Paesi da cui provengono i testi. Di conseguenza, anche la definizione di ciò che è “offensivo” o “accettabile” segue standard culturali ristretti.

La ricerca suggerisce che la neutralità dell’Ai è un mito. Ogni risposta prodotta da un modello riflette una combinazione di scelte linguistiche e morali, filtrate da norme che non sono universali. Ad esempio, il concetto di rispetto verso l’autorità, la centralità della famiglia o il significato della libertà individuale variano radicalmente da un Paese all’altro. Ma il modello, costruito su testi prevalentemente anglofoni, tende a incorporare il punto di vista dominante.

Il rischio non è solo accademico. Se le grandi piattaforme usano questi sistemi per generare contenuti, sintetizzare informazioni o persino formulare raccomandazioni politiche, l’immaginario che ne deriva sarà omogeneo, coerente con la cultura che ha prodotto i dati di partenza. L’Ai diventa così un amplificatore di asimmetrie cognitive, un moltiplicatore della voce di chi è già visibile.

La soluzione non passa dall’aumento della potenza di calcolo, ma dalla diversificazione delle fonti e dei feedback umani. Servono basi di dati multilingue, costruite in modo cooperativo, con contributi dai Paesi meno rappresentati, e processi di revisione che includano sensibilità diverse. Non è un problema di grandezza dei modelli, ma di ecologia culturale: un sistema che apprende dal mondo deve essere esposto al mondo intero, non a una sua frazione privilegiata.

Come ricordano gli autori, il pericolo è credere che la scala risolva tutto. Modelli più grandi non garantiscono una visione più equa: possono semplicemente replicare su vasta scala i limiti cognitivi di chi li ha addestrati. Finché la rete rimarrà dominata da contenuti occidentali, anche le macchine continueranno a riflettere quella prospettiva.

Tendenze | Altri articoli