Le cosiddette allucinazioni, le risposte e i contenuti errati o distorti prodotti dall’intelligenza artificiale, rappresentano un problema noto e che dev’essere affrontato in modo prioritario, considerando quanto ChatGPT e gli strumenti più evoluti di questo ambito siano ormai impiegati in modo diffuso, in ogni contesto (anche nelle aule della politica nostrana). Tra coloro che stanno cercando una soluzione c’è proprio OpenAI, l’organizzazione responsabile del chatbot e del modello linguistico su cui poggia.
Process Supervision: l’approccio di OpenAI alle allucinazioni IA
In un documento appena pubblicato, firmato dai suoi ricercatori, afferma di aver sperimentato con feedback incoraggianti un approccio differente alla fase di addestramento, basato sulla revisione di ogni step che compone l’operazione anziché esclusivamente sulla valutazione del risultato finale restituito. Questa tecnica, nota come Process Supervision, rispetto alla Outcome Supervision solitamente utilizzata ha diversi benefici.
Non solo consente di ridurre le allucinazioni dell’IA, ma le permette di emulare ciò che OpenAI definisce un flusso di pensiero validato dall’essere umano
. Proprio quell’essere umano che, anche secondo il numero uno della stessa organizzazione, sarebbe a rischio estinzione per le conseguenze di uno sviluppo incontrollato dell’intelligenza artificiale.
Il test è stato condotto sulla fase di istruzione di un modello delegato alla risoluzione dei problemi matematici. Non è chiaro se e come la società di Sam Altam abbia intenzione di adottare questo approccio per le prossime evoluzioni di GPT o per altre finalità.
Non tutti concordano sull’efficacia del metodo. Tra gli scettici, citati da CNBC, figura Ben Winters dell’Electronic Privacy Information Center. Queste le sue parole.
Non credo che solamente questo possa mitigare in modo significativo le preoccupazioni a proposito di disinformazione e risultati errati, una volta utilizzato là fuori. Conta soprattutto come abbiano intenzione di implementare ciò che hanno scoperto nella loro ricerca.
È stato lo stesso Sam Altman di OpenAI a parlare di potenziali rischi per le elezioni e per il processo democratico. Si manifesterebbero in conseguenza a un uso improprio o malevolo dell’IA. Considerando come gli Stati Uniti si apprestino a entrare nel vivo della campagna che porterà alle Presidenziali del prossimo anno, ci sarà certamente modo di tornare ad affrontare l’argomento.