E se l’intelligenza artificiale di ChatGPT si infilasse anche nel sempre delicato rapporto tra medico e paziente? Piaccia o no, sta accadendo. Tra gli addetti ai lavori, c’è chi ammette di far già uso del chatbot per comunicare brutte notizie ai diretti interessati o ai loro parenti. Insomma, per trovare le parole giuste nelle situazioni critiche. Oppure, per favorire l’accesso a un percorso terapeutico.
ChatGPT nel rapporto medico-paziente
Il fenomeno, fino a ora perlopiù ignorato dalle discussioni in merito agli impieghi dei sistemi IA più evoluti e alle loro implicazioni, è oggetto di un corposo e interessante articolo del New York Times, che invitiamo a leggere. La testata ha raccolto diverse testimonianze, portando alla luce approcci e punti di vista differenti. C’è ad esempio quello di Michael Pignone, alla guida del Dipartimento di Medicina Interna dell’Università di Austin, in Texas, che racconta di aver avviato nell’ultimo mese una fase di test della tecnologia, chiedendole di trovare la formula adatta da sottoporre a chi soffre di problemi legati all’abuso di alcol.
Stiamo portando avanti un progetto per migliorare i trattamenti per l’abuso di alcol. Come possiamo coinvolgere i pazienti che non hanno risposto agli interventi comportamentali?
La richiesta per ChatGPT è specifica: restituire un testo caratterizzato da un linguaggio che per il destinatario possa risultare comprensibile, dunque privo di eccessivi tecnicismi, al tempo stesso efficace per raggiungere l’obiettivo stabilito ovvero mettere il pazienze a conoscenza della sua condizione e far accendere in lui quella scintilla utile per spingerlo a intraprendere il percorso terapeutico. Questo l’incipit restituito.
Se pensi di bere troppo alcol, non sei solo. Molte persone hanno questo problema, ma esistono farmaci che possono aiutarti a sentirti meglio, ad avere una vita più sana e felice.
Nulla che qualcuno con tatto e buon senso non possa pronunciare da sé, sia chiaro, specialmente se con alle spalle anni di esperienza e dotato di una conoscenza della patologia in questione. A seguire, una serie di chiarimenti a proposito dei pro e dei contro inerenti alla cura proposta.
Uno scenario preso in considerazione anche da Douglas White, direttore del programma istituito presso la University of Pittsburgh School of Medicine a proposito di etica e processo decisionale nell’ambito delle malattie gravi.
C’è un motivo per cui i medici possono trascurare la compassione. Molti sono focalizzati sul trattare i disturbi del paziente come una serie di problemi da risolvere. Come risultato, potrebbero prestare poca attenzione alle implicazioni emotive per i diretti interessati e per le loro famiglie.
Empatia e compassione: passaggio di consegne
Così come per molti altri impieghi dell’intelligenza artificiale, i benefici e le ripercussioni negative finiscono per sovrapporsi, per diventare quasi indistinguibili, difficili da etichettare o da giudicare. Se da un lato, in modo simile a quanto accade per tutti gli utilizzi degli algoritmi che semplificano e velocizzano lo svolgimento di una mansione, magari incrementandone l’efficacia, gli addetti ai lavori ne possono beneficiare, dall’altro è legittimo chiedersi se sia opportuno lasciare che un elaboratore su un server remoto si faccia carico di un compito tanto delicato. Se decidere che sia ChatGPT a dover esprimere empatia e compassione non costituisca il sintomo di una mancanza di cui il medico stesso si dovrebbe occupare e preoccupare.
Un’implicazione etica e quasi filosofica ancor prima che scientifica e tecnologica. Un ennesimo spunto di riflessione, un argomento di discussione attorno al quale dividersi tra chi a favore e chi invece contro. In questo caso è più che mai difficile non sentirsi direttamente coinvolti o interessati. Da osservatori e commentatori del progresso e dell’innovazione dovremmo esser spinti a formulare un giudizio obiettivo e distaccato. Da pazienti potenziali, come siamo tutti, non siamo però certi di essere pronti ad assistere a un simile passaggio di consegne.