Come già anticipato a fine ottobre, i legislatori europei non hanno ancora raggiunto un accordo sulla regolamentazione dell’intelligenza artificiale generativa. Al momento, l’intesa tra Italia, Francia e Germania non ha dato i suoi frutti. La discussione finale sull’AI Act è prevista il prossimo 6 dicembre.
Autoregolamentazione per i modelli IA?
La legge sull’intelligenza artificiale, proposta dalla Commissione europea oltre due anni fa, prevede una regolamentazione in base al livello di rischio. L’uso dei sistemi IA è vietato per alcune attività, ad esempio per l’identificazione biometrica in tempo reale negli spazi pubblici. Il Parlamento europeo ha approvato inoltre specifici obblighi per i fornitori dei modelli di IA generativa, ma gli Stati membri non hanno raggiunto un accordo e quindi il via libera da parte del Consiglio sembra ancora in alto mare.
Alcuni paesi hanno suggerito una regolamentazione in base alla potenza del modello o alle sue dimensioni e numero di utenti. Italia, Francia e Germania hanno proposto un’autoregolamentazione che tiene conto di un codice di condotta, invece di applicare regole rigide.
Molti europarlamentari, il commissario Thierry Breton e diversi esperti sono contrari all’autoregolamentazione, in quanto non garantisce la sicurezza dei cittadini. Secondo ACN e altre agenzie, la sicurezza deve essere un requisito fondamentale durante l’intero ciclo di vita dei sistemi IA.
L’obiettivo dei legislatori è approvare l’AI Act nel 2024. Se non verrà trovata un’intesa, la discussione sulla legge potrebbe essere accantonata in vista delle elezioni europee. Il rischio è approvare un regolamento con diversi punti deboli derivanti da compromessi (e attività di lobbying).