Quando OpenAI ha annunciato GPT-4 nel marzo 2023 il pubblico è rimasto a bocca aperta dinanzi alla capacità del Generative Pre-trained Transformer di lavorare con le immagini come input, ovvero della natura multimodale del modello di linguaggio. Fino a oggi, però, questa funzionalità non è stata mai utilizzata pubblicamente in quanto la organizzazione no-profit ha preferito condurre test dietro le quinte prima di un rilascio ampio. Il supporto al riconoscimento delle immagini si è rivelato però molto più problematico del previsto e, secondo un report del New York Times, l’accesso non verrà garantito per diverso tempo a causa di preoccupazioni sulla sua potenziale capacità di riconoscere individui specifici.
GPT-4 non riconoscerà le immagini?
Secondo quanto pubblicato dal NYT, OpenAI avrebbe condotto test in collaborazione con la startup Be My Eyes, la quale sta sviluppando un’applicazione per descrivere le immagini agli utenti non vedenti, e un utente in particolare si sarebbe lamentato dell’incapacità di offrire informazioni sui volti da parte dell’IA in quanto sarebbero stati oscurati per motivi di privacy.
Il ricercatore di OpenAI Sandhini Agarwal ha dunque confermato all’outlet statunitense che i problemi di privacy sono il motivo per cui l’organizzazione ha ridotto le capacità di riconoscimento facciale di GPT-4, in quanto il sistema può identificare personaggi pubblici e potenzialmente violare le leggi sulla privacy in regioni come l’Illinois e l’Europa, dove la condivisione di informazioni biometriche e il loro utilizzo richiede il consenso dei cittadini.
Inoltre, OpenAI ha manifestato una preoccupazione molto specifica: Be My Eyes potrebbe fornire un’app incapace di interpretare correttamente aspetti dei volti delle persone, come il genere o lo stato emotivo, portando a risultati inappropriati o dannosi. Insomma, serviranno altri mesi di prove per determinare l’efficacia di GPT-4 e delle sue abilità multimodali, instaurando un dialogo anche con le autorità.