ChatGPT batte uomo 90 a 76. Non è un incontro di basket, e quelli non sono numeri assoluti, bensì la percentuale di successo diagnostico registrata dal modello di intelligenza artificiale sviluppato da OpenAI e dai medici che hanno ‘gareggiato’ con lui nello studio condotto dai ricercatori del Beth Israel Deaconess Medical Center di Boston.
Se l’Ai eccelle in diverse aree, presenta allo stesso tempo delle vulnerabilità che sollevano interrogativi sul suo utilizzo clinico. Tante le domande sul tema: saremo diagnosticati sempre più spesso dall’Ai? Questi strumenti potranno anche curarci? In che modo sarà possibile integrare l’esperienza umana con l’intelligenza artificiale? Dallo studio emergono delle risposte interessanti per il futuro della medicina.
I risultati dello studio
Lo studio si è basato sull’analisi di 105 casi clinici, mai utilizzati precedentemente, per garantire l’indipendenza dei dati. Medici e ChatGPT-4 sono stati messi alla prova nel formulare diagnosi utilizzando una scala di valutazione denominata r-Idea, che misura la qualità del ragionamento clinico e l’accuratezza diagnostica.
In termini di prestazioni, ChatGPT-4 ha ottenuto punteggi sorprendentemente elevati, con una mediana di 10 su 10 nella scala r-Idea, superiore al 9 degli specialisti e all’8 dei medici residenti. Il modello di OpenAI ha mostrato una percentuale di successo diagnostico del 90%, superando il 76% dei medici che hanno usato il supporto dell’Ai e il 74% di coloro che hanno operato senza alcun ausilio.
Un’arma a doppio taglio: errori e limiti
Sebbene ChatGPT-4 eccella nel ragionamento clinico, non è esente da errori. Tra gli esempi più eclatanti, l’indicazione di eseguire un test di gravidanza su una paziente di 74 anni con dolore addominale. Questo errore evidenzia una vulnerabilità intrinseca dell’Ai: l’incapacità di interpretare il contesto clinico con la sensibilità di un essere umano.
Un altro limite dello studio è rappresentato dal contesto artificiale in cui si è svolto. Le condizioni controllate, benché necessarie per una comparazione oggettiva, non rispecchiano la complessità del lavoro clinico quotidiano, caratterizzato da variabili imprevedibili e dalla necessità di decisioni rapide che a volte passano anche dall’esperienza e dal dato esperienziale.
I medici non si fidano ci ChatGPT
Negli ultimi anni sempre più studi stanno indagando l’utilità dell’Intelligenza artificiale in campo medico, spesso con risultati soddisfacenti. Uno studio condotto dal Massachusetts Institute of Technology (Mit) ha rivelato come l’Intelligenza artificiale possa diagnosticare il cancro al seno con cinque anni di anticipo rispetto ai metodi diagnostici tradizionali. Il sistema, denominato Mirai, si basa sul “deep learning”, la tecnologia che caratterizza l’Ai e consente a questi sistemi di apprendere e migliorare le proprie capacità attraverso l’esperienza e la raccolta dati. Lo stesso procedimento che solleva dubbi in termini di privacy, potrebbe offrire una nuova, grande speranza nella lotta contro il cancro.
Mirai è stato testato in tre ospedali situati in diverse aree geografiche: Stati Uniti, Svezia e Taiwan in modo da verificarne l’efficacia su etnie differenti, un aspetto cruciale poiché molti modelli predittivi già esistenti non sono efficaci con popolazioni come le donne afroamericane. Mirai ha dimostrato di superare questi ostacoli, offrendo risultati promettenti.
Per approfondire: L’intelligenza artificiale può rilevare il cancro al seno con cinque anni di anticipo
Nonostante i risultati ottenuti anche da altri studi, i medici coinvolti dal Beth Israel Deaconess Medical Center di Boston sono scettici sui suggerimenti dell’Ai. Molti professionisti si sono ancorati alle loro diagnosi iniziali, anche quando ChatGPT-4 proponeva alternative più plausibili. Questo fenomeno, noto come “ancoraggio decisionale”, è una barriera significativa per l’adozione diffusa dell’intelligenza artificiale in ambito clinico.
Oltre alla resistenza, è emersa anche una scarsa alfabetizzazione all’uso dell’Ai da parte dei medici. Pochi partecipanti hanno sfruttato appieno le funzionalità di ChatGPT, come l’opzione di fornire l’intera anamnesi per ottenere risposte più precise.
Il potenziale dell’Ai nella medicina
Nonostante i limiti, Chatgpt-4 ha dimostrato che l’intelligenza artificiale può avere un ruolo di rilievo nella medicina del futuro. Tra i benefici più evidenti:
- Diagnosi più accurate: il modello può ridurre il rischio di errori diagnostici, fungendo da supporto decisionale per i medici;
- Formazione medica: le capacità esplicative di ChatGPT-4 possono migliorare l’apprendimento dei futuri medici, rendendo più chiari i processi di ragionamento clinico;
- Telemedicina avanzata: L’Ai può essere integrata nelle consultazioni a distanza, analizzando i dati clinici e suggerendo diagnosi in tempo reale.
Chiaramente la piena integrazione dell’Ai richiede un approccio equilibrato. Sebbene le prestazioni siano notevoli, l’affidabilità di questi strumenti non è garantita in tutti i contesti. È fondamentale affrontare il problema delle “allucinazioni” diagnostiche, ovvero la generazione di risposte errate o prive di fondamento clinico come nel caso della diagnosi di gravidanza su vista.
L’intelligenza artificiale continua a trasformare il settore sanitario, offrendo soluzioni innovative per ottimizzare i processi amministrativi e clinici. Tra gli strumenti emergenti, ChatGPT-4 si distingue per le sue capacità nel ridurre il carico burocratico dei professionisti della salute e migliorare l’efficienza operativa.
Velocità e precisione nella documentazione clinica
La compilazione di documenti amministrativi e clinici rappresenta una parte significativa del lavoro quotidiano dei medici, spesso a scapito del tempo che potrebbero dedicare ai pazienti. Uno studio condotto dall’Ospedale Universitario di Uppsala ha dimostrato che ChatGPT-4 è in grado di compilare cartelle cliniche e note mediche fino a dieci volte più velocemente rispetto ai professionisti umani. Qualcosa non da poco soprattutto per un Paese come l’Italia che ha gravi problemi di produttività.
Questa rapidità si traduce in un doppio vantaggio: da un lato, il personale medico può concentrarsi maggiormente sulla cura diretta dei pazienti; dall’altro, l’automazione dei documenti di dimissione e delle note cliniche garantisce un processo più fluido, riducendo il rischio di errori dovuti a distrazioni o stanchezza e migliorando la precisione delle informazioni riportate.
Efficienza operativa e benefici organizzativi
Oltre alla riduzione del tempo speso in attività burocratiche, ChatGPT-4 offre un supporto decisionale prezioso nel contesto clinico. Analizzando i dati clinici, il modello può suggerire diagnosi e piani di trattamento alternativi, consentendo ai medici di esplorare opzioni che potrebbero non aver considerato inizialmente. Questo tipo di assistenza non si sostituisce al giudizio del medico, ma lo completa, migliorando la qualità complessiva dell’assistenza.
L’automazione delle attività amministrative influisce positivamente anche sulla gestione del tempo. Con meno ore dedicate alla burocrazia, i medici possono organizzare meglio le loro giornate lavorative, riducendo il rischio di burnout e garantendo una maggiore interazione con i pazienti. Questo, a sua volta, crea un’esperienza di cura più soddisfacente per i pazienti stessi.
L’Ai come alleato, non come sostituto
Affinché strumenti come ChatGPT-4 possano esprimere tutto il loro potenziale in ambito sanitario, è essenziale che i medici ricevano una formazione adeguata. La familiarità con le tecnologie di intelligenza artificiale permette non solo di utilizzarle al meglio, ma anche di integrarle con sicurezza nelle pratiche quotidiane. Come ripetono gli esperti da quanto l’Ai generativa è esplosa nell’uso quotidiano e professionale, la chiave di successo è sempre utilizzare l’Intelligenza artificiale a supporto dell’essere umano, non al suo posto. Il campo medico non fa eccezione: l’Ai può fornire un supporto tecnico prezioso, ma la supervisione umana resta imprescindibile per interpretare i risultati in modo accurato e adattarli al contesto specifico del paziente.
I medici coinvolti nello studio hanno sottolineato che strumenti come ChatGPT-4 non devono sostituire il giudizio umano, ma agire come estensioni delle loro capacità. L’Ai può offrire seconde opinioni preziose, ma la decisione finale deve rimanere nelle mani dei professionisti.
Inoltre, è cruciale considerare l’aspetto etico e pratico dell’uso dell’intelligenza artificiale. Chatgpt-4, come molti modelli di Ai, può incorporare pregiudizi presenti nei dati su cui è stato addestrato.
Il futuro dell’intelligenza artificiale nella medicina
L’esperimento del Beth Israel Deaconess Medical Center segna un passo importante nella comprensione delle potenzialità e dei limiti dell’Ai in medicina. Mentre i risultati dimostrano che l’intelligenza artificiale può migliorare l’efficienza e l’accuratezza del processo diagnostico, le resistenze culturali e i limiti tecnologici sottolineano la necessità di ulteriori sviluppi.
Formazione, ricerca e regolamentazione saranno i pilastri su cui costruire l’integrazione dell’Ai nella pratica clinica.