L’Organizzazione Mondiale della Sanità (OMS) ha pubblicato il primo report sull’uso dell’intelligenza artificiale nel campo dell’assistenza sanitaria e della medicina. Il documento dal titolo “Ethics and governance of artificial intelligence for health” è il frutto di due anni di consultazioni tenute da un gruppo di esperti. L’OMS ha elencato sei principi da seguire per limitare i rischi e massimizzare le opportunità offerte dalla tecnologia.
IA nell’assistenza sanitaria: possibile con moderazione
In base al report, l’intelligenza artificiale può essere sfruttata per velocizzare la diagnosi e lo screening delle malattie (come avviene già nei paesi più avanzati e ricchi), assistere con le cure cliniche, rafforzare la ricerca sanitaria e lo sviluppo di farmaci, sostenere diversi interventi di salute pubblica, come la sorveglianza delle malattie, la risposta alle epidemie e la gestione dei sistemi sanitari.
L’intelligenza artificiale potrebbe anche consentire ai pazienti di assumere un controllo maggiore della propria assistenza sanitaria e comprendere meglio le loro esigenze in evoluzione. Potrebbe anche consentire ai paesi poveri di risorse e alle comunità rurali di colmare le lacune nell’accesso ai servizi sanitari. Tuttavia, il report evidenzia alcuni rischi dovuti all’uso eccessivo o sbagliato della tecnologia, soprattutto quando ciò avviene a spese degli investimenti necessari per garantire una copertura sanitaria universale.
È necessario, in particolare, regolamentare l’uso dell’intelligenza artificiale, tenendo conto i pericoli associati alla raccolta dei dati sanitari e alla possibilità che possano finire nelle mani di aziende con enormi interessi commerciali o di governi autoritari e repressivi.
Per limitare i rischi e sfruttare le opportunità offerte dall’intelligenza artificiale, l’OMS ha sviluppato i seguenti principi base per la sua regolamentazione:
- Proteggere l’autonomia umana: gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche. La privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati
- Promuovere il benessere e la sicurezza delle persone: i progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d’uso o indicazioni ben definiti
- Garantire trasparenza, spiegabilità e intelligibilità: prima della progettazione o dell’implementazione di una tecnologia IA devono essere pubblicate informazioni sufficienti e facilmente accessibili
- Promuovere la responsabilità: le tecnologie di intelligenza artificiale devono essere utilizzate in condizioni appropriate e da persone adeguatamente formate
- Garantire inclusione ed equità: l’IA deve essere progettata in modo da garantire un uso e accesso equo, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche
- Promuovere un’IA reattiva e sostenibile: progettisti, sviluppatori e utenti dovrebbero valutare le applicazioni durante l’uso per determinare se l’IA risponde in modo appropriato alle aspettative e ai requisiti. I sistemi di IA dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l’efficienza energetica