Molti paesi cercano di regolamentare l’intelligenza artificiale generativa per cercare di bloccare gli eventuali abusi della tecnologia. Le stesse aziende, tra cui OpenAI, Microsoft e Google, aggiungono vari filtri per evitare risposte pericolose. Tuttavia, alcuni sviluppatori vogliono modelli IA senza censure per poter accedere alle complete possibilità creative dell’intelligenza artificiale.
Large Language Model senza filtri
I modelli di IA generativa sono addestrati con quantità enormi di dati, ma prima di renderli accessibili a tutti (ad esempio tramite ChatGPT) è previsto un “fine tuning” con esempi di risposte appropriate, utili e rilevanti. L’azienda che sviluppa il modello segue specifiche regole per garantire la sicurezza. Gli output non dovrebbero includere false informazioni, contenuti “tossici” e suggerimenti pericolosi, ad esempio come ottenere una sostanza stupefacente.
Quando l’utente inserisce input su argomenti vietati, il chatbot si rifiuta di rispondere. Alcuni sviluppatori ritengono che OpenAI, Meta, Google e altre aziende non dovrebbero decidere cosa è vietato. Per questo motivo sono state realizzate versioni modificate di modelli esistenti senza filtri. Uno dei LLM (Large Language Model) più utilizzati a tale scopo è Llama2 di Meta, in quanto è open source. Molti modelli senza censura sono disponibili su Hugging Face.
Un modello IA è solo un mezzo per evitare la ricerca di informazioni su Internet. Se qualcuno vuole costruire una bomba troverà ugualmente le istruzioni online. Ecco perché alcuni sviluppatori affermano che i filtri impediscono di sfruttare tutto il potenziale dell’intelligenza artificiale generativa. Un ricercatore di OpenAI ha dichiarato che il modello più sicuro è quello che si rifiuta di eseguire qualsiasi attività, ma non serve a nulla.