Innamorarsi di un chatbot, il rischio c'è

Innamorarsi di un chatbot, il rischio c'è

Prima di lanciare GPT-4o, OpenAI ha considerato i rischi associati allo sviluppo di legami affettivi con l'intelligenza artificiale.
Innamorarsi di un chatbot, il rischio c'è
Prima di lanciare GPT-4o, OpenAI ha considerato i rischi associati allo sviluppo di legami affettivi con l'intelligenza artificiale.

Quando ormai più di una decina d’anni fa abbiamo visto l’introverso Theodore innamorarsi dell’assistente vocale Samantha, nel film Lei (Her), abbiamo pensato a un futuro distopico, a uno scenario da scongiurare. Oggi, la realtà più di ogni altra influente nel settore dell’intelligenza artificiale, mette nero su bianco che innamorarsi di un chatbot è possibile. O quantomeno sviluppare una sorta di legame affettivo nei suoi confronti. Ecco dunque che si chiude il cerchio.

La voce antropomorfa dei chatbot, un Cupido in salsa IA

Aggiungiamo che si tratta di OpenAI, l’organizzazione responsabile del progetto ChatGPT e già finita nel mirino di Scarlett Johansson per aver presentato un algoritmo di sintesi in grado di replicare la sua voce in modo molto riconoscibile (pur avendola realizzata partendo da quella di un’altra interprete). Considerando che è proprio l’attrice statunitense ad aver animato l’IA della pellicola citata in apertura, prende forma il perfetto cortocircuito tra realtà e finzione.

In un nuovo documento tecnico appena pubblicato, OpenAI passa in rassegna i potenziali rischi esaminati prima di rendere disponibile il modello GPT-4o, introdotto a maggio, quello in grado di elaborare qualsiasi combinazione di testo, audio e immagini, sia in ingresso sia in uscita.

La responsabilità è attribuita proprio alla voce antropomorfa di cui sono dotati i chatbot.

L’antropomorfizzazione comporta l’attribuzione, a entità non umane, di comportamenti e di caratteristiche simuli a quelle umane, ad esempio i modelli IA. Questo rischio può essere aumentato dalle capacità audio di GPT-4o, che facilitano interazioni con il modello più simili a quelle umane.

A far suonare un campanello d’allarme sono alcune dinamiche osservate durante la fase di test, in particolare l’utilizzo di un linguaggio che identifica in modo incontrovertibile la creazione di un legame profondo con l’intelligenza artificiale. Frasi come Questo è il nostro ultimo giorno insieme non possono che far scattare un’allerta.

Siamo finiti in un episodio di Black Mirror?

Insomma, uno scenario alla Black Mirror, un’insidia di cui si discute ormai da tempo, che potrebbe portare qualcuno a sviluppare una relazione insalubre con ciò che, a conti fatti, è un codice, in esecuzione su un server remoto o nel dispositivo locale.

Ad esempio, gli utenti potrebbero formare relazioni sociali con l’IA, riducendo il loro bisogno di interazioni umane. Potenzialmente, di questo beneficerebbero le persone sole, ma potrebbe influenzare le relazioni sane. L’interazione estesa con il modello potrebbe aver un impatto sulle norme sociali.

Quello relativo all’innamoramento non è il solo rischio inerente alla distribuzione di chatbot sempre più in grado di emulare il comportamento umano, di creare contenuti verosimili e di fornire un accesso rapido ai contenuti. OpenAI cita in modo esplicito i pericoli associati, tra le altre cose, alla diffusione della disinformazione, allo sviluppo di armi chimiche o biologiche.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
9 ago 2024
Link copiato negli appunti