Chiriatti e l’AI: “Il nostro superpotere? Il pensiero critico”

Dati, algoritmi e potenza di calcolo: i tre pilastri dell’intelligenza artificiale. Ma solo l'uomo può decidere, perché solo l'uomo ha una volontà e dei fini
26 Gennaio 2026
3 minuti di lettura
Intelligenza Artificiale Ai

L’intelligenza artificiale non è una mente alternativa alla nostra, né un’entità autonoma destinata a sostituirci. È, piuttosto, una potente estensione delle capacità umane. A ricordarlo è Massimo Chiriatti, intervenuto all’AI Fest, con una riflessione che va oltre l’hype tecnologico e chiama in causa ambiente, capitale umano e responsabilità collettiva. Al centro del suo intervento c’è un’affermazione precisa: il vero superpotere non è l’AI, ma il pensiero critico con cui scegliamo di usarla.

Dalla tecnologia alla mente estesa

Chiriatti parte da una domanda solo apparentemente semplice: dove si trova davvero la nostra mente mentre scorriamo uno schermo o ascoltiamo qualcuno parlare? Da decenni, filosofi e scienziati cognitivi sostengono che la mente non sia confinata nel cervello, ma si estenda nell’ambiente, negli strumenti, nella cultura. È questo cambio di prospettiva a essere decisivo: non dobbiamo partire dalla tecnologia per capire l’AI, ma dal modo in cui pensiamo, decidiamo e agiamo con essa.

Di conseguenza, il punto non è se usare le macchine, ma come e quando. L’automazione non è una novità: la utilizziamo da anni nei processi deterministici. La vera discontinuità arriva con l’AI generativa, che ci mette di fronte a sistemi capaci di suggerire, prevedere, generare possibilità. Ed è proprio qui che nasce un senso diffuso di disagio: non tanto per la potenza della tecnologia, quanto per la difficoltà culturale di governarla.

Cos’è davvero l’intelligenza artificiale

Per Chiriatti, l’AI resta una disciplina che usa computer e che analizza il passato. I dati, per definizione, sono tracce di ciò che è già accaduto. Le macchine li elaborano su scala che non può più essere umana (sono ormai troppi per noi), individuano correlazioni, costruiscono modelli e restituiscono scenari possibili, mai certezze. “Non sono oracoli”, avvisa. Se “apriamo” idealmente una macchina di AI, troviamo tre elementi fondamentali:

  • dati, oggi fuori scala rispetto alle capacità cognitive individuali;
  • algoritmi, che permettono di individuare correlazioni;
  • potenza computazionale, sempre più accessibile, economica e facile da usare.

Da qui deriva una distinzione importante. Quando un dominio è regolato da leggi chiare, possiamo usare modelli deterministici: l’umano scrive le regole, la macchina esegue. Quando invece i dati sono troppi e la conoscenza incompleta, entrano in gioco modelli induttivi e probabilistici. Il risultato, in questo caso, non è mai “vero” o “falso”, ma più o meno plausibile.

Il “Sistema 0”: quando l’AI viene prima di noi

Riprendendo la celebre distinzione del Premio Nobel per l’economia Daniel Kahneman tra Sistema 1 (intuitivo e rapido) e Sistema 2 (riflessivo e lento), Chiriatti introduce un’ulteriore categoria: il Sistema 0. È il livello algoritmico che opera prima del pensiero umano.

L’AI, leggendo costantemente dati, comportamenti ed eventi, pre-modellizza il mondo e costruisce aspettative su ciò che potremmo fare, spesso senza bisogno di una richiesta esplicita. Questo apre enormi opportunità per una decisione aumentata, ma deve essere chiaro che un suggerimento: un suggerimento algoritmico non è una decisione.

La macchina non ha corpo, non ha fini, non ha intenzionalità. Non “vuole” nulla. Proprio per questo, la responsabilità resta interamente umana. L’AI non agisce: propone. Siamo noi a decidere se e come trasformare quelle proposte in azioni.

Estendere o esternalizzare la mente?

Qui entra in gioco la teoria della mente estesa di Andy Clark. Un taccuino che conserva appunti o una calcolatrice che semplifica i conti sono estensioni delle nostre capacità cognitive. L’AI, però, rappresenta un salto ulteriore: non è più solo uno strumento, ma un vero ambiente cognitivo.

Estendere le capacità umane significa potenziarle mantenendo il controllo. Esternalizzarle, invece, può portare allo scarico cognitivo: se deleghiamo troppo e smettiamo di esercitare una facoltà, rischiamo di perderla. È una questione che riguarda direttamente il capitale umano, la formazione e la qualità delle decisioni collettive.

Agenti, orchestrazione e livelli di responsabilità

Nell’ecosistema digitale attuale, agiamo sempre più spesso attraverso agenti software: sistemi a cui deleghiamo obiettivi specifici. Anche in questo caso, non c’è autonomia reale. Gli agenti vanno orchestrati, monitorati, governati, soprattutto perché operano in contesti non deterministici e su più livelli tecnologici.

Chiriatti invita a distinguere chiaramente i piani del dibattito: tecnologia, economia, politica e scienze umane. Molte confusioni – e molti conflitti online – nascono dal mescolare questi livelli. Ma la domanda decisiva resta una: stiamo usando l’AI per estendere le nostre capacità o per sostituirle?

Il vero superpotere è umano

Non è il momento di parlare di macchine coscienti. La coscienza resta un tema biologico e filosofico aperto, lontano dall’orizzonte tecnologico attuale. Il rischio, semmai, è un altro: attribuire all’AI un potere che non ha e sottrarlo a chi lo possiede davvero.

Il messaggio finale di Chiriatti è chiaro: il superpotere è il pensiero critico, la capacità di capire quando usare l’AI, per cosa, con quali limiti e con quale responsabilità. È su questo che dobbiamo continuare a investire: nella formazione, nella cultura, nella consapevolezza. Perché le macchine possono suggerire, ma solo gli esseri umani possono decidere.

Persone | Altri articoli