Giustizia fai-da-te con ChatGPT: vittoria in aula (ma non sempre funziona)

L’Ai aiuta a vincere una causa in Kazakistan, ma inganna un legale negli Usa. L’intelligenza artificiale può davvero entrare in tribunale?
16 Maggio 2025
3 minuti di lettura
Giustizia Ai Canva

Non è un avvocato, non ha mai frequentato un’aula universitaria, eppure ha già firmato – metaforicamente – la sua prima vittoria legale. Un cittadino kazako è riuscito ad annullare una multa stradale grazie all’aiuto di ChatGPT. Nessun legale di grido, nessuna parcella: solo un’interfaccia testuale, una buona dose di iniziativa personale e una multa da 5.800 tenge (circa 12 euro).

Il protagonista si chiama Kenzhebek, vive ad Almaty e ha deciso di contestare una sanzione che riteneva ingiusta: aveva superato un camion fermo vicino a un incrocio, ma per la polizia locale si trattava di una manovra vietata. Dopo un primo tentativo di ricorso respinto dall’ufficio di polizia, ha scelto di appellarsi direttamente al tribunale, chiedendo “assistenza” a ChatGPT per preparare il fascicolo. Il chatbot lo ha aiutato a scrivere l’atto d’appello e, durante l’udienza, ha persino suggerito in tempo reale le risposte da dare al giudice.

La causa è durata appena dieci minuti: il giudice ha riconosciuto la validità delle argomentazioni e ha annullato la sanzione. Una piccola vittoria, certo, ma simbolica. Per la prima volta, un modello linguistico ha partecipato in modo operativo a un procedimento giudiziario, senza intermediari umani. Non per suggerire a un avvocato esperto, ma per guidare direttamente il ricorrente.

Il caso ha suscitato reazioni contrastanti. Da un lato, entusiasmo per la democratizzazione dell’accesso alla giustizia. Dall’altro, preoccupazioni legittime: cosa accade quando lo strumento fallisce o, peggio, inventa?

Quando l’Ai fa crollare la difesa

Se Kenzhebek ha usato ChatGPT con intelligenza, il legale newyorkese Steven Schwartz ne ha invece pagato il prezzo di un uso ingenuo. L’avvocato, con oltre trent’anni di esperienza, rappresentava un passeggero di Avianca Airlines ferito a bordo da un carrello delle vivande. Per sostenere la causa contro la compagnia, ha prodotto una sfilza di precedenti giurisprudenziali che sembravano perfetti. Peccato che non fossero mai esistiti.

Sette citazioni, complete di riferimenti a sentenze, giudici e tribunali, tutte partorite dalla mente probabilistica di ChatGPT. Quando il giudice Kevin Castel ha chiesto di verificare quei precedenti, la verità è venuta a galla: erano pura invenzione. Lo stesso chatbot, quando interrogato nuovamente, ha ammesso – con tono perfino “dispiaciuto” – di aver generato materiale fittizio.

Il caso ha acceso il riflettore su un rischio strutturale delle Ai generative: l’incapacità di distinguere tra verità giuridica e plausibilità linguistica. A differenza dei database legali strutturati, un modello come ChatGPT non consulta fonti certificate in tempo reale, ma costruisce le sue risposte sulla base della coerenza statistica con i dati di addestramento. Il risultato può essere sorprendentemente convincente, ma non necessariamente corretto.

Giustizia automatizzata? Tra linee guida, rischi e vuoti normativi

La giustizia ha bisogno di certezze, di fonti verificabili, di responsabilità chiare. Tutto ciò che l’intelligenza artificiale, per sua natura, fatica a garantire. Eppure, nel vuoto normativo che ancora caratterizza l’uso dell’Ai nei contesti legali, sempre più persone – e in alcuni casi anche istituzioni – iniziano a integrarla nei processi decisionali. Ma chi controlla questi strumenti? E soprattutto, chi risponde degli errori?

Nel caso del Kazakistan, il Ministero dello Sviluppo Digitale aveva inizialmente smentito le voci su un presunto divieto di utilizzo di ChatGPT nelle agenzie governative, chiarendo che le linee guida approvate nel 2024 sull’uso dell’intelligenza artificiale nel settore pubblico erano di natura consultiva e non prevedevano restrizioni formali alle piattaforme Ai straniere. L’obiettivo era quello di promuovere un uso responsabile dell’intelligenza artificiale, soprattutto in relazione al trattamento di dati personali e informazioni riservate. Tuttavia, in una fase successiva, il Ministero ha effettivamente adottato un ordine ministeriale che limita l’impiego di ChatGPT da parte dei dipendenti pubblici, citando motivazioni legate alla sicurezza informatica. Come alternativa, è stata promossa l’adozione di soluzioni Ai locali, sviluppate da specialisti kazaki e integrate all’interno della rete interna ETS, considerata più sicura e conforme agli standard nazionali di protezione dei dati.

Nel resto del mondo, invece, la situazione è ancora nebulosa. In molti ordinamenti manca del tutto una cornice normativa specifica sull’uso dell’Ai nel settore giudiziario. Alcuni paesi – come la Francia – hanno iniziato a regolamentare l’impiego degli algoritmi nel sistema penale, soprattutto per le decisioni predittive, ma gli strumenti generativi come ChatGPT restano in una zona grigia.

A livello europeo, la proposta dell’Ai Act punta a classificare gli usi dell’intelligenza artificiale per rischio, e tra quelli “ad alto rischio” sono inclusi proprio i sistemi che possono influenzare decisioni legali. Ma per ora siamo ancora nel campo delle intenzioni.

Tendenze | Altri articoli