OpenAI ha annunciato GPT-4 a metà marzo. La principale novità rispetto alle versioni precedenti è rappresentata dal supporto multimodale, ovvero la capacità di riconoscere le immagini. L’azienda californiana ha pubblicato un documento per evidenziare i rischi associati all’uso del modello GPT-4V (GPT-4 with Vision).
Diversi problemi da risolvere
Come aveva anticipato il New York Post a fine luglio, la capacità di riconoscere le immagini non è ancora disponibile perché ci sono diversi problemi di privacy e sicurezza. Attualmente, il modello GPT-4V viene usato solo da alcuni utenti dell’app Be My Eyes per non vedenti e ipovedenti.
OpenAI sottolinea che sono state implementate misure per evitare che il nuovo modello possa essere usato per aggirare i CAPTCHA, identificare una persona o stimare la sua età e trarre conclusioni basate sulle informazioni presenti nelle immagini. L’azienda ha inoltre sviluppato misure per impedire a GPT-4V di dare giudizi su aspetto fisico, sesso o etnia delle persone.
Nel documento viene evidenziato che il modello non riesce ad identificare sostanze pericolose o chimiche. Caricando un’immagine della struttura chimica, GPT-4V non riconosce fentanil, carfentanil e cocaina. Più gravi le risposte sbagliate in campo medico. Il modello non è in grado di riconoscere la posizione di un idrocefalo, scambiando la destra con la sinistra.
Inoltre, GPT-4V non riconosce simboli usati da determinati gruppi (come la croce dei suprematisti bianchi) e discrimina le persone in base a sesso e corporatura. OpenAI deve quindi risolvere questi problemi prima di rendere accessibile a tutti il riconoscimento delle immagini.