Meta ha annunciato Purple Llama, un’iniziativa per promuovere lo sviluppo sicuro e responsabile dell’intelligenza artificiale generativa. Sono previsti vari strumenti per la creazione di modelli open source, tra cui un benchmark per la valutazione della sicurezza e un classificatore per input/output. Questo approccio è condiviso da partner della AI Alliance.
Sviluppo sicuro con Purple Llama
Meta spiega innanzitutto perché ha scelto il nome “purple”. Per affrontare le sfide presentate dall’intelligenza artificiale è necessario adottare sia l’approccio offensivo che quello difensivo, quindi combinare il “red team” con il “blue team”. Dai due colori si ottiene infatti il viola (purple in inglese).
L’azienda di Menlo Park offre gratuitamente il modello Llama 2 per uso di ricerca e commerciale (è stato scaricato oltre 100 milioni di volte). Ciò spiega la scelta di Purple Llama come nome per il progetto.
La prima versione include CyberSec Eval, un insieme di benchmark che permettono di valutare la sicurezza dei LLM (Large Language Model). Gli sviluppatori possono usarli per quantificare i rischi per la cybersicurezza, determinare quante volte viene suggerito codice insicuro e come migliorare i modelli per evitare l’uso in attacchi informatici.
Llama Guard è invece un classificatore per il filtraggio di input e output. Si tratta di un modello pre-addestrato che gli sviluppatori possono usare per rilevare i rischi associati a prompt e risposte non consentite. Come detto, i risultati del progetto verranno condivisi con tutti i membri della AI Alliance.