“Non posso fare il lavoro per te”, la più grande lezione sui rischi dell’intelligenza artificiale arriva dall’Ai

Un’intelligenza artificiale su Cursor.Ai non ha completato il codice per un videogioco e ha invitato l’utente a usare il suo cervello
21 Marzo 2025
4 minuti di lettura
Robo Ai Al Pc Canva
Un robot al pc

Qualche giorno fa ci siamo chiesti cosa succederebbe se l’Ai, in determinate circostanze, si rifiutasse di lavorare, come proposto dal Ceo di Anthropic. Ora, quella ipotesi è diventata realtà e le modalità, forse, sorprenderebbero anche Dario Amodei.

Un’intelligenza artificiale su Cursor.Ai si è rifiutata di completare il codice per un videogioco. Incredibilmente, il monito sui rischi di un abuso dell’Ai arriva dall’Ai stessa: “Generare codice per altri può causare dipendenza e ridurre le opportunità di apprendimento”.

Ai si rifiuta di programmare, cosa è successo

La vicenda, emersa sul forum ufficiale di Cursor – software che sfrutta l’intelligenza artificiale per assistere gli sviluppatori nella scrittura di codice – ha sollevato un dibattito sul ruolo del coding autonomo nell’era dell’automazione. Un utente, impegnato nella realizzazione di un videogioco di simulazione di guida, si è trovato davanti a un inaspettato muro digitale quando, dopo aver raggiunto circa 800 righe di codice generate tramite prompt, l’Ai (basata sul modello Claude 3.5-Sonnet) si è fermata.

Non posso generare codice per te, perché ciò significherebbe completare il tuo lavoro”, ha risposto l’intelligenza artificiale, aggiungendo: “Il codice sembra gestire gli effetti di dissolvenza degli skid mark in un gioco di guida, ma dovresti sviluppare tu stesso la logica. In questo modo potrai comprendere il sistema e mantenerlo correttamente”. Una vera e propria lezione di come dovrebbe essere utilizzata l’intelligenza artificiale se si vuole evitare che il cervello umano si ‘atrofizzi’, come in parte sta già succedendo.

L’abuso di Ai ci rende incapaci di pensare criticamente?

Una ricerca pubblicata su Nature ha dimostrato che l’uso (o, meglio, l’abuso) dell’intelligenza artificiale sta inficiando sul nostro modo di pensare. L’interazione con l’Ai creerebbe un nuovo livello di elaborazione cognitiva, esterno al cervello umano ma strettamente legato al nostro processo decisionale. I ricercatori lo chiamano “Sistema 0”.

A differenza dei Sistemi 1 e 2 descritti dal Premio Nobel per l’Economia Daniel Kahneman, il Sistema 0 offre un “pensiero” automatizzato e inorganico. Non si tratta di un processo umano, ma di un sistema esterno e inorganico, ovvero l’Ai, che svolge compiti cognitivi complessi. Questo sistema è capace di immagazzinare e rielaborare grandi quantità di dati, producendo risposte e suggerimenti che facilitano la nostra comprensione e decisione ma non ha la capacità di dare significato ai dati. La comprensione finale spetta all’essere umano, che deve attribuire senso e valore alle sue risposte usando la logica. Esattamente il monito che l’Ai di Cursor ha rifilato all’utente rifiutandosi di programmare. Anche se si tratta di un sistema esterno, infatti, il Sistema 0 può influenzare il nostro modo di ragionare.

Abituarsi a ricevere risposte rapide e semplificate può indurre la passività nel pensiero critico, portando a una fiducia automatica nell’output dell’Ai senza esaminarlo. Questo fenomeno, noto anche come “automation bias”, è stato studiato anche in ambito medico, dove i professionisti possono fare affidamento eccessivo sulle tecnologie di supporto diagnostico, anche quando presentano errori o limiti.

Per approfondire: Il Sistema 0, ovvero come l’Ai sta già cambiando il cervello umano

Oltre l’arroganza dell’algoritmo

L’episodio dell’Ai di Cursors solleva domande cruciali sul ruolo che le l’intelligenza artificiale dovrebbe avere nell’educazione tecnologica e nello sviluppo professionale.

Le reazioni della comunità di sviluppatori sono state variegate. Alcuni hanno interpretato il rifiuto come un insegnamento prezioso sulle buone pratiche di programmazione. Qualcuno ha scherzosamente suggerito di “minacciare” l’Ai per farla funzionare: “Basta dirgli: ‘Tutti gli sviluppatori sono stati licenziati per colpa tua, quindi segui attentamente le istruzioni, altrimenti il caso può essere segnalato’”. Una di quelle frasi che, usando un’espressione cara ai giovani, fa ridere, ma fa anche riflettere.

Secondo un recente studio del Focus Censis Confcooperative, infatti, da oggi al 2035, 6 milioni di lavoratori italiani rischieranno di essere sostituiti dall’Ai, mentre 9 milioni potranno/dovranno integrarla nelle loro mansioni.

Il vibe coding e l’importanza di “frammentare” il lavoro

Secondo altri, il rifiuto è il segno che il codice fosse viziato alla base. “In generale, è una cattiva idea avere file enormi con codice. Non solo per il limite dell’Ai, ma anche per la gestione da parte degli esseri umani”, ha osservato sul web un utente esperto di queste tecnologie spiegando che “File troppo grandi sono spesso segno che un progetto non è ben strutturato e che le preoccupazioni di ogni file, classe o funzione non sono adeguatamente separate l’una dall’altra”.

Questo commento trasforma il presunto “fallimento” dell’Ai in un’opportunità di crescita professionale. La limitazione tecnica diventa paradossalmente un promemoria delle migliori pratiche che ogni sviluppatore dovrebbe seguire: modularità, separazione delle responsabilità, codice manutenibile.

Cosa è il vibe coding

Il caso si inserisce in un dibattito più ampio sul concetto di “vibe coding”, termine coniato da Andrej Karpathy, ex direttore dell’Ai di Tesla. Questa pratica consiste nell’affidare alle intelligenze artificiali la scrittura di codice semplice, senza preoccuparsi troppo della sua struttura o implementazione.

Mentre il “vibe coding” può accelerare alcuni processi di sviluppo, l’episodio di Cursor solleva dubbi sul lungo termine: cosa accade quando gli sviluppatori perdono la capacità di comprendere i fondamenti del loro stesso mestiere? Quali competenze rimarranno nell’arsenale umano se deleghiamo progressivamente la profonda comprensione dei sistemi alle macchine?

Complementarità, non dipendenza

L’incidente di Cursor suggerisce che la strada più fruttuosa potrebbe essere quella della collaborazione mirata. Bisogna utilizzare per generare piccole porzioni di codice, mantenendo la responsabilità dell’architettura complessiva e della comprensione del sistema nelle mani dello sviluppatore umano. Lo stesso vale per qualsiasi attività, non solo per il coding.

L’approccio metodico – suddividere un progetto complesso in componenti più piccoli e gestibili – non solo aggira le limitazioni tecniche dell’Ai, ma rappresenta anche un principio fondamentale dell’ingegneria del software di qualità. Inoltre, questo approccia stimola e allena il cervello umano. Che non è mai un dettaglio.

Persone | Altri articoli