OpenAI suggerisce di usare GPT-4 per la moderazione dei contenuti. Questa attività viene oggi effettuata con tool automatizzati e intervento manuale. Secondo l’azienda californiana, il suo modello IA velocizza l’operazione in quanto può interpretare in poco tempo le modifiche alle policy dei servizi online. È comunque necessaria una supervisione umana per individuare eventuali bias indesiderati.
GPT-4 per moderare i contenuti
Tutti i maggiori social network utilizzano il machine learning per verificare il rispetto delle regole da parte degli utenti. Ma pagano (poco) anche migliaia di moderatori umani che sono costretti a vedere contenuti di ogni tipo, inclusi quelli con violenza estrema e abusi sui minori. Ciò ha conseguenze traumatiche per la loro salute mentale.
OpenAI spiega che l’uso di GPT-4 limita l’intervento umano e velocizza l’identificazione dei contenuti vietati in base alle regole in vigore (che cambiano spesso). Il primo passo è addestrare il modello IA con alcuni esempi di moderazione (indicando i contenuti consentiti e vietati). GPT-4 legge quindi la policy e assegna le etichette ai contenuti. Gli esperti umani possono anche risolvere eventuali errori di valutazione e correggere la stessa policy per una maggiore comprensione.
OpenAI elenca tre vantaggi derivanti dall’uso di GPT-4. I moderatori umani possono interpretare e applicare le regole in modo differente. Il giudizio del modello IA è invece lo stesso. GPT-4 può inoltre velocizzare lo sviluppo di una nuova policy (poche ore invece di settimane o mesi). Infine, il modello IA evita la visione di contenuti estremi a tutto vantaggio della salute mentale dei moderatori umani.
L’azienda californiana evidenzia anche le limitazioni. Come avviene per le conversazioni con ChatGPT, i giudizi del modello IA possono essere sbagliati. È quindi necessaria la supervisione umana per validare i risultati. Quello della moderazione è un problema difficile da risolvere anche con l’intelligenza artificiale.