Anthropic, Google, Microsoft e OpenAI hanno annunciato la creazione del Frontier Model Forum, un gruppo che lavorerà per garantire uno sviluppo sicuro e responsabile dei modelli di intelligenza artificiale. L’iniziativa è quindi la risposta delle quattro aziende ai rischi evidenziati da esperti e legislatori che spingono verso una regolamentazione della tecnologia.
Alleanza per un’IA sicura
Anthropic, Google, Microsoft e OpenAI sviluppano altrettanti chatbot basati sull’intelligenza artificiale generativa, ovvero Claude, Bard, Bing Chat e ChatGPT. I quattro fondatori del Frontier Model Forum hanno comunicato che il forum è aperto ad altre aziende che soddisfano determinati requisiti. Il primo è ovviamente lo sviluppo di modelli IA. Devono inoltre mantenere gli impegni assunti per garantire la sicurezza e partecipare alle varie iniziative congiunte.
Gli obiettivi principali del forum sono:
- Promuovere lo sviluppo responsabile di modelli IA, ridurre al minimo i rischi e consentire valutazioni indipendenti e standardizzate di capacità e sicurezza
- Identificare le migliori pratiche per lo sviluppo responsabile e l’implementazione di modelli, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l’impatto della tecnologia
- Collaborare con legislatori, accademici, società civile e aziende per condividere le conoscenze sulla fiducia e sui rischi per la sicurezza
- Sostenere lo sviluppo di applicazioni che possono aiutare a far fronte alle maggiori sfide della società, come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e la lotta alle minacce informatiche
Il forum focalizzerà l’attenzione sui primi tre obiettivi a partire dal 2024. Nei prossimi mesi verrà istituito un Advisory Board che stabilirà strategie e priorità. In Europa è prevista l’approvazione di una legge, nota come AI Act, che regolamenterà l’uso dell’intelligenza artificiale (inclusa quelle generativa) considerando vari livelli di rischio.