Il Garante per la protezione dei dati personali ha illustrato alla Camera dei Deputati la relazione sull’attività svolta nel 2023. Tra gli argomenti trattati ha trovato ampio spazio l’intelligenza artificiale generativa. Sono stati evidenziati i rischi, gli interventi effettuati e la necessità di attribuire all’autorità la governance sull’IA, come anticipato a fine marzo.
AI Act, ChatGPT e Sora
Il Presidente dell’autorità (Pasquale Stanzione) ha sottolineato la presenza crescente dell’intelligenza artificiale della vita privata e pubblica delle persone. Il 2023 è stato l’anno della sua diffusione di massa con l’arrivo di numerosi modelli di IA generativa. Il più popolare (ChatGPT) viene usato dal 65% degli studenti per svolgere i compiti e dal 25% delle aziende nei processi produttivi. La tecnologia viene inoltre sempre più sfruttata nel settore sanitario a scopo sperimentale e diagnostico.
Nel corso del 2023 ci sono stati diversi interventi del Garante. Ha bloccato temporaneamente ChatGPT per la raccolta illecita di dati personali e assenza di sistemi per la verifica dell’età dei minori. Ha inoltre avviato un’istruttoria su Sora, il modello di OpenAI che genera video a partire da una descrizione testuale.
A fine maggio è stata approvata la prima legge al mondo che regolamenta l’intelligenza artificiale (AI Act). L’art. 74 (punto 8) attribuisce al Garante della privacy la competenza sul controllo dei sistemi IA ad alto rischio. Il Presidente Stanzione ha quindi evidenziato ancora una volta che il Garante dovrebbe essere l’autorità competente.
Con il recente disegno di legge italiano sull’intelligenza artificiale (che si affianca all’AI Act) sono state invece scelte l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN) come autorità che avranno il compito di garantire l’applicazione della normativa nazionale e dell’Unione europea in materia.