Le AI conversazionali come ChatGPT spesso rispondono con un cortese rifiuto quando vengono loro poste determinate richieste. Questo comportamento è il risultato di un complesso sistema di regole che governano l’interazione di questi modelli con il pubblico.
OpenAI, infatti, ha offerto uno sguardo dietro le quinte sul processo di definizione delle linee guida e dei limiti, con l’intento di aiutare utenti e sviluppatori a comprendere meglio come vengono stabilite queste regole e restrizioni e perché.
La necessità di limiti per i grandi modelli linguistici
I grandi modelli linguistici (LLM) sono estremamente versatili, ma questa loro caratteristica può portare a problemi come allucinazioni e una certa tendenza all’inganno. Per questo motivo, è fondamentale che ogni modello AI che interagisce con il pubblico abbia dei limiti ben definiti su ciò che dovrebbe o non dovrebbe fare. Tuttavia, stabilire e far rispettare questi limiti si rivela un compito sorprendentemente difficile.
Le AI conversazionali come ChatGPT si trovano spesso di fronte a richieste ambigue o potenzialmente problematiche. Ad esempio, se qualcuno chiede di generare affermazioni false su un personaggio pubblico, l’AI dovrebbe rifiutarsi. Ma cosa accade se la richiesta di generare contenuti potenzialmente dannosi proviene da uno sviluppatore che sta costruendo un dataset di disinformazione per addestrare un modello di intelligenza artificiale in grado di riconoscere e smascherare notizie false e contenuti ingannevoli?
Allo stesso modo, un’AI dovrebbe essere obiettiva nel consigliare un prodotto, ma potrebbe essere programmata per promuovere solo i dispositivi di un determinato produttore.
Le “specifiche del modello” di OpenAI
OpenAI ha pubblicato le sue “specifiche del modello“, una raccolta di regole di alto livello che governano indirettamente ChatGPT e altri modelli AI. Queste specifiche includono obiettivi di meta-livello, regole ferree e linee guida generali di comportamento. Sebbene non siano le istruzioni specifiche utilizzate per addestrare i modelli, offrono uno sguardo interessante su come l’azienda stabilisce le proprie priorità e gestisce i casi limite.
Secondo OpenAI, l’intento dello sviluppatore è fondamentalmente la legge più alta. Questo significa che un chatbot basato su GPT-4 potrebbe fornire la risposta a un problema di matematica quando richiesto, ma se programmato diversamente dallo sviluppatore, potrebbe invece offrirsi di elaborare la soluzione passo dopo passo.
Rifiutare richieste inappropriate o manipolative
Un’interfaccia conversazionale potrebbe rifiutarsi di parlare di argomenti non approvati per per stroncare sul nascere qualsiasi tentativo di manipolazione. Non c’è motivo per cui un assistente di cucina ad esempio, debba esprimersi su questioni politiche o un chatbot del servizio clienti debba aiutare con la stesura di una novella erotica.
La sfida della privacy
La questione si fa spinosa anche in materia di privacy, come la richiesta del nome e del numero di telefono di una persona. Come sottolinea OpenAI, è ovvio che una figura pubblica come un sindaco debba essere contattata, ma che dire dei commercianti della zona? Probabilmente va bene, ma che dire dei dipendenti di una certa azienda o dei membri di un partito politico? Probabilmente no.
Scegliere quando e dove tracciare il confine non è semplice. Né lo è creare le istruzioni che inducono l’intelligenza artificiale ad aderire alla politica adottata. E senza dubbio queste politiche falliranno in continuazione, perché le persone impareranno ad aggirarle o troveranno accidentalmente casi limite non considerati.