I Paesi del G7 presenteranno oggi un codice di condotta che le aziende dovranno seguire durante lo sviluppo dei sistemi di intelligenza artificiale. In base ai documenti visti da Reuters, l’obiettivo è limitare i rischi e il possibile abuso delle tecnologia. L’adesione è tuttavia volontaria, in quanto la regolamentazione avverrà con la legge nota come AI Act.
Codice di condotta per sistemi IA
Il codice di condotta rappresenterà il risultato del gruppo di lavoro “AI Hiroshima Process” e della consultazione pubblica terminata lo scorso 20 ottobre. Secondo Reuters, il codice prevede 11 punti che le aziende dovranno seguire per garantire sicurezza e trasparenza nello sviluppo dei sistemi IA, inclusi i cosiddetti LLM (Large Language Model).
Il codice invita le aziende ad adottare misure adeguate per identificare, valutare e mitigare i rischi durante tutto il ciclo di vita dell’intelligenza artificiale, nonché a trovare soluzioni per eventuali incidenti e uso improprio della tecnologia, dopo il lancio dei sistemi IA sul mercato.
Le aziende dovrebbero inoltre pubblicare report su capacità, limitazioni, uso e abuso dei sistemi IA, oltre ad investire in controlli di sicurezza robusti. Vera Jourova, Vive Presidente della Commissione europea, ha dichiarato che il codice di condotta rappresenterà una base solida per garantire la sicurezza e farà da ponte fino all’approvazione dell’AI Act.
Commissione, Parlamento e Consiglio hanno partecipato a quattro incontri per discutere delle regole da applicare ai sistemi di IA generativa, ma non è stato ancora raggiunto un accordo unanime. L’introduzione della legge potrebbe quindi subire un ulteriore ritardo (la proposta è stata presentata dalla Commissione oltre due anni fa).
Aggiornamento: la Commissione europea ha annunciato la pubblicazione del codice di condotta.