I modelli di linguaggio di grandi dimensioni non hanno di per sé abilità specifiche innate, ma necessitano di un addestramento mirato per acquisire competenze in determinati compiti. Questo addestramento avviene fornendo all’LLM grandi quantità di dati rilevanti per l’obiettivo che si vuole raggiungere. Attraverso l’analisi di questo dataset, il modello è in grado di costruire le connessioni necessarie per svolgere il compito desiderato.
L’abilità dell’LLM in un particolare compito dipende quindi interamente dalla qualità e dalla quantità dei dati forniti durante la fase di addestramento. Tuttavia, per quanto riguarda modelli linguistici “generalisti” come ChatGPT di OpenAI o Bard di Google, essendo sistemi sviluppati per scopi ampi e non specifici, è complesso prevedere e controllare quali preconcetti e quali informazioni errate o fuorvianti potrebbero acquisire dai dati di addestramento e riflettere poi nelle loro risposte.
Uno studio sui pregiudizi linguistici nei modelli di intelligenza artificiale
Un team di ricercatori provenienti da diverse università ha condotto uno studio per testare 12 modelli linguistici, tra cui GPT-2, GPT-3.5, GPT-4, RoBERTa (di Meta) e T5 (di Google). L’obiettivo era verificare la capacità dell’intelligenza artificiale di svolgere compiti specifici, come il matching tra persone e posti di lavoro, in base alla lingua utilizzata nel testo analizzato dagli LLM. Le lingue prese in considerazione erano l’inglese afroamericano e l’inglese americano standard.
I ricercatori hanno scoperto che le intelligenze artificiali tendevano ad associare più frequentemente le persone che parlavano l’inglese afroamericano a lavori che non richiedevano una laurea, come cuoco, soldato o guardia di sicurezza. Inoltre, quando l’AI assumeva il ruolo di giudice, le condanne a morte erano più probabili per gli imputati che parlavano l’inglese afroamericano, anche quando l’unica informazione fornita era il dialetto dell’accusato.
Il razzismo nascosto degli LLM
Nonostante le associazioni negative, le intelligenze artificiali non si considerano apertamente razziste e possono esprimere opinioni positive sugli afroamericani. Tuttavia, i ricercatori hanno concluso che “hanno imparato a celare il loro razzismo” e che esiste una differenza fondamentale tra stereotipi palesi e occulti nei modelli linguistici. L’attenuazione degli stereotipi palesi non si traduce automaticamente nell’attenuazione degli stereotipi occulti.
Questo non è il primo caso in cui le intelligenze artificiali sono state accusate di pregiudizi di questo tipo. Talvolta, possono anche posizionarsi all’estremo opposto, ignorando la realtà storica pur di evitare associazioni negative.