Pochi giorni addietro Microsoft ed Epic Systems hanno annunciato l’introduzione del modello di linguaggio GPT-4 di OpenAI all’interno dei software utilizzati in ambito sanitario per l’assistenza dei pazienti. Gli operatori sanitari potranno utilizzarli per preparare risposte e analizzare le cartelle cliniche nel processo di ricerca delle tendenze, ovvero le indagini necessarie per diagnosi particolari.
Microsoft porta l’IA nel settore sanitario
Per chi non lo sapesse, Epic Systems è una delle più grandi società di software per la sanità d’America, tanto che i suoi pacchetti vengono utilizzati in circa un terzo degli ospedali negli Stati Uniti, per oltre 305 milioni di pazienti. L’utilizzo degli algoritmi aiuterebbe il personale sanitario nella cura dei pazienti, velocizzando certi processi particolarmente lenti o automatizzabili, permettendo di spostare il focus verso attività più complesse e strettamente necessarie.
Microsoft, pertanto, ha deciso di intervenire portando il servizio Azure OpenAI nei software di Epic Systems, fornendo loro l’accesso API ai modelli di linguaggio di grandi dimensioni.
I due casi di utilizzo già proposti dal colosso di Redmond riguardano le risposte automatiche ai messaggi dei pazienti e l’analisi avanzata dei dati, ergo il completamento di ricerche su un gran numero di pazienti per identificare tendenze che potrebbero essere utili per fare nuove scoperte o, anche, per motivi finanziari.
In breve, la partnership tra Microsoft ed Epic Systems mira ad aumentare la produttività degli operatori sanitari, “consentendo loro di concentrarsi sui compiti clinici che richiedono veramente la loro attenzione”, permettendo al contempo un’esplorazione più intuitiva dei dati clinici.
Tuttavia, alcuni esperti si sono già pronunciati contro l’utilizzo del modello di linguaggio GPT-4 in ambito sanitario, in parte a causa della sua capacità di creare informazioni poco affidabili. La dottoressa Margaret Mitchell ha dichiarato:
“I modelli linguistici non sono addestrati a produrre fatti. Sono addestrati a produrre cose che sembrano fatti. Se vuoi usare gli LLM per scrivere storie creative o aiutare con l’apprendimento delle lingue, fantastico. Queste cose non si basano su fatti dichiarativi. Portare la tecnologia dal regno del linguaggio fluente, dove brilla, al regno di conversazione basata sui fatti, è la cosa più sbagliata da fare.”
Un’altra preoccupazione deriva dai potenziali bias di GPT-4, che potrebbero discriminare determinati pazienti in base a sesso, razza, età o altri fattori.