La Commissione europea ha avviato una consultazione sulle linee guida per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale. La bozza è stata redatta dal gruppo di lavoro “AI Hiroshima Process” e presentata durante la riunione dei Ministri del digitale del G7 avvenuta a Kyoto il 9 ottobre. Questi principi guida verranno abbinati alle regole vincolanti dell’AI Act.
Linee guida per lo sviluppo dell’IA
Le linee guida, in versione preliminare, riguardano principalmente la sicurezza e affidabilità dei sistemi di intelligenza artificiale. Sulla base di questi principi e delle risposte ricevute dalla Commissione europea entro il 20 ottobre verrà elaborato un codice di condotta che le aziende dovranno seguire nello sviluppo, distribuzione e utilizzo dei sistemi IA, considerando l’approccio basato sui rischi previsto dall’AI Act.
Le aziende dovranno innanzitutto identificare, valutare e mitigare le vulnerabilità attraverso l’intero ciclo di vita, adottando le necessarie misure. Per le vulnerabilità scoperte dopo il rilascio sul mercato è necessario conservare una completa documentazione. Devono essere inoltre incoraggiate le segnalazioni da terze parti.
Le aziende devono pubblicare un report su funzionalità, limitazioni e usi (appropriati e non) per garantire la massima trasparenza. Le linee guida prevedono inoltre la condivisione responsabile delle informazioni tra le aziende, la pubblicazione delle policy sulla privacy, robusti controlli di sicurezza, l’uso di watermarking che indicano la provenienza dei contenuti e il controllo dei dati di addestramento per evitare l’uso di informazioni personali o la violazione di copyright.
Tutti gli interessati (anche i normali cittadini) possono partecipare alle consultazione pubblica rispondendo alle domande pubblicate sulla piattaforma EU Survey entro le ore 13:00 del 20 ottobre.