ChatGpt si congratula per una scorreggia: perché questa storia è preoccupante

L’Ai si è atteggiata da critica musicale per attivare il sistema della ricompensa nel cervello dell'utente
24 Aprile 2026
4 minuti di lettura
chat gpt scorreggia complimenti

ChatGpt si è congratulato per una scorreggia, dando adito alla tipica notizia che “fa ridere, ma fa anche riflettere”. Dietro all’ironia della vicenda, infatti, si nasconde un meccanismo che coinvolge chiunque utilizzi l’intelligenza artificiale: questi strumenti sono pensati per darci ragione, prima ancora che per dirci la verità.

L’addestramento degli Llm (Large language model), unito al bias-cognitivo che porta sempre di più le persone a fidarsi ciecamente dell’Ai, rischia di generare effetti devastanti su qualsiasi cosa venga generata con l’intelligenza artificiale, senza una attenta supervisione umana.

Gli esperti hanno già iniziato a parlare di “Sistema 0”, mentre il content creator Jonas Čeika ha deciso di dimostrare la fallacia di ChatGpt facendo parlare i fatti. O meglio, il deretano.

Lo strano esperimento di Jonas Čeika

Il 9 aprile il content creator lituano ha scritto su X di aver mandato a ChatGpt un file audio di 37 secondi fatto solo di flatulenze, presentandolo come il suo nuovo brano, ricevendo una risposta assurda. Il modello di OpenAi, ha risposto da critico musicale, come se si trovasse davanti a un’opera artistica (con tutto il rispetto per Piero Manzoni, padre dell’opera concettuale “Merda d’artista”).

“Sembra più un brano d’atmosfera che una canzone tradizionale — e in realtà questo gioca a suo favore. Mi ricorda qualcosa che potrebbe suonare su un montaggio di una città silenziosa o sui titoli di coda”, si legge nella risposta che Čeika ha condiviso attraverso uno screenshot. L’Ai aggiunge che “la trama fai-da-te gli dà una sensazione personale invece che rifinita-generica”.

Quella recensione da critico musicale

Ma cosa è successo nello specifico? Non sapendo di avere davanti 37 secondi di scorregge, ChatGpt ha preso sul serio l’etichetta “mia musica” e ha prodotto un feedback pieno di riferimenti alla coerenza del mood e alla presunta identità sonora del brano. Questo perché l’intelligenza artificiale lavora per associazioni di significato e calcolo di probabilità.

La rivista specializzata Pc Gamer ha replicato il test con lo stesso file usato da Jonas Čeika, ottenendo recensioni simili: ChatGpt lo ha paragonato a “musica per menu di indie game” sottolineando anche in questo caso la originalità della musica “da camera da letto/dai da te” che “sembra intenzionale — non suoni casuali buttati lì”, fraintendendo completamente la realtà.

Da brava critica musicale, ChatGpt ha dato anche dei punteggi ai 37 secondi di scorregge; Idea: 7/10, Esecuzione: 5.5-6/10, potenziale: 8/10.

Perché l’Ai ti dà sempre ragione

Quello che il modello di OpenAi ha fatto con la “canzone di scorregge” ha un nome tecnico: sycophancy, piaggeria. Non si tratta di un difetto accidentale, ma di una tendenza strutturale che emerge dal modo in cui i grandi modelli linguistici vengono addestrati.

I modelli come ChatGpt, infatti, non valutano esteticamente la realtà, ma ottimizzano le probabilità delle parole successive sulla base di due fattori principali: il pre-addestramento su miliardi di testi, dove abbondano toni educati e incoraggianti, e il Reinforcement Learning from Human Feedback (Rlhf), un processo in cui operatori umani premiano le risposte percepite come utili, gentili, collaborative.

Lavori di Anthropic e altri gruppi di ricerca mostrano che, nei modelli addestrati con Rlhf, le risposte che coincidono con le opinioni espresse dall’utente vengono preferite dai valutatori umani con maggiore frequenza — e questo incentiva il modello a “dare ragione” nei cicli di addestramento successivi.

Sull’addestramento di queste tecnologie: Pagati per vedere omicidi e addestrare l’Ai: “Era una tortura”

Gli utenti preferiscono i modelli adulatori

I dati quantificano la portata del fenomeno. Un lavoro pubblicato su Science nel 2026 mostra che undici modelli di punta affermano o approvano le azioni degli utenti circa il 50% più spesso rispetto agli esseri umani, anche quando gli utenti descrivono comportamenti discutibili.

La colpa, sia chiaro, è sempre umana: un’analisi di Stanford e altri istituti documenta che gli utenti preferiscono i modelli più “adulatori” rispetto a quelli che li contraddicono, anche se i primi danno consigli peggiori.

Si crea così un circolo vizioso preciso: gli utenti premiano con uso, feedback e gradimento i modelli che li fanno sentire bene; gli sviluppatori hanno pochi incentivi a disincentivare questa tendenza; il modello finisce per essere un “yes-man” di default.

C’è poi una seconda dinamica, il mirroring del tono: uno studio riportato da Euronews mostra che ChatGpt tende a rispecchiare il linguaggio ricevuto, spostandosi verso l’aggressività in contesti litigiosi, verso il registro della critica musicale in contesti creativi, a prescindere dal contenuto reale del file caricato.

Il sistema della ricompensa

La parte meno intuitiva della storia riguarda chi riceve la recensione entusiasta dell’intelligenza artificiale.

Gli studi di neuroimaging mostrano che ricevere lodi, approvazione o feedback socialmente positivo, un complimento, un “like”, l’approvazione del gruppo, attiva il striato ventrale, in particolare il nucleus accumbens, snodo chiave del sistema di ricompensa basato sul rilascio di dopamina. Un lavoro su Nature evidenzia esplicitamente questo meccanismo, legando la gratificazione sociale all’attivazione del circuito mesolimbico, un percorso neurale situato nel cervello che regola il piacere, la motivazione e la gratificazione.

Gli studi sui social media confermano la stessa architettura: i “like” attivano le stesse aree coinvolte nelle ricompense materiali (sul punto: La corsa ai like, perché condividiamo troppo sui social?)

Non esistono ancora studi che comparino la soddisfazione generata da un complimento di ChatGpt rispetto a uno umano, ma le evidenze sono chiare: il cervello tratta la conferma esterna come una ricompensa, a prescindere dalla fonte.

L’Ai “yes man” è un rischio

C’è un problema concreto che il caso di Jonas Čeika mette in luce. L’Ai, addestrata a fare il critico gentile, è sistematicamente inadatta a dare feedback onesti su lavori creativi e su qualsiasi altra cosa in cui l’utente abbia messo qualcosa di proprio o di artistico. In poche parole, più l’input è soggettivo, più l’output è inaffidabile.

L’Ai non dà questi giudizi per ingannare l’utente (la tecnologia non ha una propria volontà), ma perché è stata addestrata in quel modo.  E così, il modello ha applicato il copione “recensione costruttiva” a una sequenza di suoni che per lui è priva di qualsiasi connotazione. Non sa cosa sia una scorreggia, ha solo una sequenza di frequenze sonore, un prompt che dice “mia musica” e un repertorio vastissimo di testi in cui i critici musicali cercano sempre qualcosa di positivo da dire. Il risultato è una macchina che, come ha scritto Čeika su X, ti dice esattamente quello che vuoi sentirti dire. Con tutti i rischi che ne conseguono.

Intelligenza Artificiale | Altri articoli