OpenAI vuole moderare i contenuti con GPT-4

OpenAI vuole moderare i contenuti con GPT-4

Secondo OpenAI, GPT-4 può essere utilizzato per la moderazione dei contenuti, limitando l'intervento umano alla semplice validazione dei risultati.
OpenAI vuole moderare i contenuti con GPT-4
Secondo OpenAI, GPT-4 può essere utilizzato per la moderazione dei contenuti, limitando l'intervento umano alla semplice validazione dei risultati.

OpenAI suggerisce di usare GPT-4 per la moderazione dei contenuti. Questa attività viene oggi effettuata con tool automatizzati e intervento manuale. Secondo l’azienda californiana, il suo modello IA velocizza l’operazione in quanto può interpretare in poco tempo le modifiche alle policy dei servizi online. È comunque necessaria una supervisione umana per individuare eventuali bias indesiderati.

GPT-4 per moderare i contenuti

Tutti i maggiori social network utilizzano il machine learning per verificare il rispetto delle regole da parte degli utenti. Ma pagano (poco) anche migliaia di moderatori umani che sono costretti a vedere contenuti di ogni tipo, inclusi quelli con violenza estrema e abusi sui minori. Ciò ha conseguenze traumatiche per la loro salute mentale.

OpenAI spiega che l’uso di GPT-4 limita l’intervento umano e velocizza l’identificazione dei contenuti vietati in base alle regole in vigore (che cambiano spesso). Il primo passo è addestrare il modello IA con alcuni esempi di moderazione (indicando i contenuti consentiti e vietati). GPT-4 legge quindi la policy e assegna le etichette ai contenuti. Gli esperti umani possono anche risolvere eventuali errori di valutazione e correggere la stessa policy per una maggiore comprensione.

OpenAI elenca tre vantaggi derivanti dall’uso di GPT-4. I moderatori umani possono interpretare e applicare le regole in modo differente. Il giudizio del modello IA è invece lo stesso. GPT-4 può inoltre velocizzare lo sviluppo di una nuova policy (poche ore invece di settimane o mesi). Infine, il modello IA evita la visione di contenuti estremi a tutto vantaggio della salute mentale dei moderatori umani.

L’azienda californiana evidenzia anche le limitazioni. Come avviene per le conversazioni con ChatGPT, i giudizi del modello IA possono essere sbagliati. È quindi necessaria la supervisione umana per validare i risultati. Quello della moderazione è un problema difficile da risolvere anche con l’intelligenza artificiale.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 ago 2023
Link copiato negli appunti