L’intelligenza artificiale è entrata definitivamente nelle aule di tribunale e già fa danni. Lo dimostra un’inchiesta del presidente della commissione Giustizia del Senato degli Stati Uniti, Chuck Grassley, il quale ha ricevuto conferma da due giudici federali dell’utilizzo dell’Ai da parte dei membri del loro staff.
Utilizzo che, per la precisione, è emerso proprio per gli errori che contenevano le ordinanze giudiziarie emesse dai due giudici. Ma andiamo con ordine.
Sentenze scritte con l’Ai
L’integrazione dell’intelligenza artificiale nei processi di lavoro è ormai consolidata in molti ambiti. Alcuni di questi, però, hanno una natura particolarmente delicata e rischiano di apportare conseguenze non indifferenti sulla libertà e la dignità delle persone.
Lo scorso giovedì, il presidente della commissione Grassley ha ricevuto due lettere inviategli dal giudice distrettuale Henry Wingate, del Mississippi e da quello del New Jersey, Julien Xavier Neals. I due hanno affermato che le decisioni prese in due casi giudiziari, tra loro non correlati, non erano state sottoposte a revisione prima di essere emesse. Due sentenze che, scritte con l’Ai, hanno portato a decisioni “piene di errori”.
Nello specifico, il giudice Wingate ha spiegato a Grassley che un impiegato del suo tribunale, a Jackson, ha utilizzato Perplexity – un assistente digitale basato sull’intelligenza artificiale – “come assistente di redazione, per sintetizzare le informazioni disponibili nel fascicolo”. La pubblicazione di una bozza, piena di errori, ha ammesso Wingate, essere stata “ha rappresentato una mancanza di supervisione umana”. Wingate si era limitato, inizialmente, a rimuovere e sostituire l’ordinanza originale.
Nel secondo caso, il giudice Neals che fa base a Newark, ha spiegato che una bozza di sentenza è stata “pubblicata per errore e ritirata non appena portata all’attenzione dello studio legale”. Un errore umano che Neals ha giustificato con “uno stagista di giurisprudenza ha utilizzato ChatGpt di OpenAi per la ricerca” senza autorizzazione.
Neals ha aggiunto che sono stati presi provvedimenti e che da allora il suo studio ha elaborato una politica scritta sull’intelligenza artificiale e migliorato il suo processo di revisione. L’agenzia Reuters aveva precedentemente riferito che la ricerca prodotta utilizzando l’intelligenza artificiale era stata inclusa nella sentenza.
Il futuro dell’Ai nella magistratura
Non è la prima volta che sentiamo di casi analoghi. Tra chi si è affidato ad avvocati creati con l’Ai o ha scritto le proprie memorie difensive da solo, siamo di fronte ad un nuovo scenario. Il presidente della Commissione d’inchiesta statunitense che ha trattato i casi sopracitati ha chiesto alla magistratura di adottare linee guida più rigorose. Sarà necessario ricorrere a controlli e factchecking per assicurare rigore e autorevolezza delle fonti riportate nelle sentenze.
“Ogni giudice federale e la magistratura in quanto istituzione hanno l’obbligo di garantire che l’uso dell’intelligenza artificiale generativa non violi i diritti dei cittadini né impedisca un trattamento equo ai sensi della legge”, ha affermato Grassley. Negli ultimi anni, i giudici hanno imposto multe o altre sanzioni in decine di casi, dopo che gli avvocati non avevano verificato i propri materiali da portare in tribunale e generati dall’Ai.
E in Italia?
Anche nel nostro Paese il fenomeno è abbastanza diffuso, tanto che il Consiglio superiore della Magistratura ha pubblicato delle raccomandazioni sull’uso dell’intelligenza artificiale nelle aule di tribunale. Con una delibera plenaria dell’8 ottobre 2025, adottata dal Csm, sono stati delineati principi e raccomandazioni per un uso responsabile e costituzionalmente conforme dell’Ai nell’amministrazione della giustizia.
La delibera arriva in seguito a episodi di sentenze con citazioni astratte e improprie. N attesa dell’introduzione ad agosto 2026 dell’Ai Act europeo – che classifica i sistemi di intelligenza artificiale per l’amministrazione della giustizia come “ad alto rischio” – le raccomandazioni si aggiungono alla Legge Quadro italiana n.132/2025 che ha stabilito che le decisioni fondamentali, come l’interpretazione di una legge, la sua applicazione e la valutazione delle prove, devono essere sempre affidate ad magistrato, in carne ed ossa. In sintesi, pur non volendo frenare l’utilizzo dell’Ai e restando al passo con l’evoluzione internazionale del mercato dell’intelligenza generativa, per il momento, gli strumenti come ChatGpt o Gemini e simili saranno considerati illegali per la stesura delle sentenze.