IA nella sanità: decalogo del Garante Privacy

IA nella sanità: decalogo del Garante Privacy

Il Garante per la protezione dei dai personali ha pubblicato un decalogo sull'uso dell'intelligenza artificiale per realizzare servizi sanitari.
IA nella sanità: decalogo del Garante Privacy
Il Garante per la protezione dei dai personali ha pubblicato un decalogo sull'uso dell'intelligenza artificiale per realizzare servizi sanitari.

Il Garante per la protezione dei dati personali ha pubblicato un decalogo per la realizzazione di servizi sanitari che sfruttano l’intelligenza artificiale. Considerato il tipo di dati da raccogliere, elaborare e conservare è necessario il rispetto di specifiche regole. La maggioranza di esse fanno riferimento al GDPR (Regolamento generale sulla protezione dei dati), ma il decalogo tiene conto anche dell’Artificial Intelligence Act.

Decalogo sull’uso dell’IA in sanità

Il decalogo del Garante tiene conto di tre principi generali: trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo e non discriminazione algoritmica. Innanzitutto, il paziente deve conoscere quali sono i processi decisionali effettuati attraverso strumenti di intelligenza artificiale e ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni.

È tuttavia sempre necessaria la supervisione umana. Il personale sanitario deve controllare, validare o smentire i risultati ottenuti con gli strumenti di IA. Il titolare del trattamento deve utilizzare sistemi di IA affidabili e attuare misure tecniche per ridurre gli errori allo scopo di mitigare i possibili effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona.

Il Garante ha inoltre specificato che il trattamento dei dati sulla salute attraverso tecniche di IA deve essere regolamentato da uno specifico quadro normativo, in modo da tutelare diritti, libertà e legittimi interessi degli utenti. Il trattamento deve essere preceduto da una valutazione di impatto per individuare le misure più idonee a tutelare diritti e libertà dei pazienti.

In base all’Artificial Intelligence Act, i sistemi IA che trattano dati sanitari sono considerati ad alto rischio. Pertanto è obbligatoria una valutazione di impatto a livello centrale. Infine è necessario indicare le logiche algoritmiche utilizzate per generare dati e servizi con i sistemi IA, le metriche usate per addestrare il modello, i controlli eseguiti per verificare la presenza di eventuali bias e la possibilità di una loro correzione.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 ott 2023
Link copiato negli appunti