Che se ne approvi o meno l’uso, è impossibile negare che l’intelligenza artificiale stia facendo progressi in medicina. Carico di milioni di studi e dati, un chatbot possiede conoscenze che nessun essere umano può sperare di memorizzare per il resto della sua vita. L’aspetto più evidente è la diagnosi delle malattie. L’AI non solo è in grado di identificare patologie che lasciano perplessi i medici, ma può farlo anche a distanza, senza esami invasivi.
Gli stessi medici riconoscono l’utilità dell’intelligenza artificiale. Per questo, quando il dottor Adam Rodman ha avviato uno studio per valutare questi vantaggi, era abbastanza sicuro dei risultati che avrebbe ottenuto: i suoi colleghi aiutati da ChatGPT avrebbero fatto diagnosi migliori di quelli che avevano pensato da soli. Ma c’è di più…
ChatGPT fa diagnosi migliori dei medici
50 medici di ospedali americani hanno partecipato alla ricerca. Sono stati presentati loro 6 casi dai quali dovevano formulare una diagnosi, spiegando il loro ragionamento. I casi sono reali e fanno parte dei 105 utilizzati in vari studi fin dagli anni ’90.
Naturalmente non sono mai stati pubblicati, il che significa che né i partecipanti né ChatGPT ne erano a conoscenza. Solo uno dei 6 file è stato divulgato in anticipo, con esempi di risposte corrette ed errate, per chiarire cosa ci si aspettava.
I 50 medici sono stati divisi a caso in 2 gruppi. Il primo gruppo ha utilizzato ChatGPT per identificare la malattia, mentre il secondo ha dovuto lavorare in autonomia. Sono state misurate anche le capacità del solo chatbot. I risultati sono stati sorprendenti.
Il gruppo di controllo, senza assistenza AI, ha ottenuto un punteggio medio del 74%. I praticanti che hanno utilizzato il chatbot hanno fatto solo leggermente meglio, con il 76%. ChatGPT ha stracciato tutti, raggiungendo una media del 90%. Come si spiega questo risultato?
Perché ChatGPT è più bravo dei medici?
Dopo lo shock iniziale, il dottor Rodman ha cercato di capire cosa fosse successo. Propone due punti principali. In primo luogo, i medici non si fidano dell’intelligenza artificiale quando questa suggerisce qualcosa che li contraddice. Al contrario, vedere ChatGPT formulare ipotesi diverse rafforza le loro. Spesso a torto.
Questa osservazione ha senso per Laura Zwaan, che studia il ragionamento clinico e gli errori diagnostici: “Le persone sono generalmente troppo sicure di sé quando pensano di avere ragione“. L’altro fattore che spiega i risultati dello studio è molto più concreto: molti medici non sanno come utilizzare ChatGPT al massimo delle sue potenzialità.
Il dottor Jonathan H. Chen, uno degli autori, osserva che la maggior parte utilizza l’AI come motore di ricerca, ponendo domande come La cirrosi è un fattore di rischio per il cancro?. Alla fine, “solo una frazione dei medici si è resa conto che poteva letteralmente copiare e incollare l’intero file nel chatbot e chiedergli semplicemente di dare una risposta completa all’intera domanda“.
Il problema sollevato è quindi duplice. Oltre a formare i professionisti all’uso dell’intelligenza artificiale nel loro lavoro, essi dovranno anche accettare che l’AI possa talvolta fornire una risposta che sfugge loro, nonostante gli anni di esperienza.