AI Act: bozza del codice di condotta per modelli GPAI

AI Act: bozza del codice di condotta per modelli GPAI

È stata pubblicata la prima bozza del codice di condotta per i modelli AI general-purpose, come previsto dal regolamento sull'intelligenza artificiale.
AI Act: bozza del codice di condotta per modelli GPAI
È stata pubblicata la prima bozza del codice di condotta per i modelli AI general-purpose, come previsto dal regolamento sull'intelligenza artificiale.

Al termine delle consultazioni avviate a fine luglio, la Commissione europea ha pubblicato la prima bozza del codice di condotta per i modelli GPAI (General-Purpose AI). Si tratta di linee guida che i provider dovranno seguire per rispettare l’AI Act a partire dal 2 agosto 2025.

Quattro bozze fino ad aprile 2025

Il nuovo regolamento europeo sull’intelligenza artificiale contiene specifiche disposizioni per i modelli general-purpose, ovvero quelli utilizzati ogni giorno da milioni di utenti, come ChatGPT di OpenAI, Copilot di Microsoft e Gemini di Google. Il codice di condotta rappresenta una sorta di regolamento attuativo, in quanto chiarisce come deve essere rispettata la legge (ma i provider non sono obbligati a seguire le linee guida, se utilizzano altre misure ugualmente efficaci).

La versione finale sarà disponibile entro aprile 2025. Fino ad allora sono previste quattro bozze. A fine settembre è avvenuto il primo meeting tra le parti interessate (quasi 1.000 partecipanti) che hanno fornito commenti sulla prima bozza preparata da esperti indipendenti organizzati in quattro gruppi di lavoro.

Ogni gruppo ha redatto il codice di condotta per un tema specifico: regole per trasparenza e rispetto del copyright, misure per la valutazione e l’identificazione dei rischi, misure per la mitigazione dei rischi, gestione dei rischi interni e governance per i provider dei modelli GPAI.

Ad esempio, per quanto riguarda il copyright devono essere indicati i nomi dei web crawler e le fonti dei dati utilizzati per l’addestramento dei modelli. Per quanto riguarda invece i rischi sistemici, i provider devono specificare le misure che permettono di evitare abusi dei modelli, ad esempio scrivere il codice di malware o generare fake news. Le parti interessate possono ora inviare feedback entro il 28 novembre.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
15 nov 2024
Link copiato negli appunti