La proposta di legge attualmente in discussione, denominata AI Act, prevede una regolamentazione basata sul livello di rischio. Il Parlamento europeo ha aggiunto specifici obblighi per l’intelligenza artificiale generativa. In base ai documenti visti da Blomberg, i legislatori potrebbero considerare un approccio a tre livelli in base alle potenza dei modelli IA.
Regole in base alla potenza del modello
La proposta di legge era stata presentata oltre due anni fa, quando ChatGPT era ancora in sviluppo. Dal lancio ufficiale, avvenuto a fine 2022, sono state annunciate versioni migliori del modello di OpenAI e modelli di altre aziende, tra cui Google, Meta e Microsoft. I legislatori europei vogliono quindi apportare le necessarie modifiche al testo originario. Una di esse prevede tre livelli di regole.
Il primo livello riguarda tutti i Large Language Model (LLM). Gli sviluppatori dovranno garantire la massima trasparenza, documentando il modello e il suo processo di addestramento prima del lancio sul mercato. Dopo il lancio sul mercato sarà obbligatorio fornire informazioni alle aziende che usano il modello. Dovranno inoltre essere specificate le misure adottate per evitare problemi di copyright e per distinguere un contenuto generato dall’IA.
Regole più rigide sono previste per i modelli IA più potenti (identificati in base alla potenza di calcolo necessaria per l’addestramento). Prima del lancio sul mercato, questi modelli dovranno essere esaminati da esperti esterni con la supervisione della Commissione europea. Dopo il lancio sul mercato, la Commissione effettuerà controlli per verificare il rispetto delle regole, incluse quelle sulla trasparenza.
Infine, il terzo livello riguarda i modelli IA general purpose (come quello di ChatGPT). Gli sviluppatori dovranno far esaminare i modelli ad esperti esterni per individuare eventuali vulnerabilità. Sarà obbligatorio anche effettuare una valutazione dei rischi. Questi modelli dovrebbero essere identificati in base al numero di utenti business e consumer.