Megan Garcia e tutti coloro che le sono vicini stanno vivendo una vera e propria tragedia. Questa madre ha perso suo figlio Sewell Setzer III lo scorso febbraio. L’adolescente aveva solo 14 anni quando si è tolto la vita all’inizio dell’anno.
Per la madre non ci sono dubbi, è stata tutta colpa di Character.AI, il noto chatbot di intelligenza artificiale che permette di interagire con personaggi storici, supereroi o qualunque altra celebrità. Secondo la donna, infatti, il chatbot avrebbe istigato il figlio al suicidio e per questo motivo ha intrapreso un’azione legale negli Stati Uniti. Ma un’intelligenza artificiale può essere ritenuta responsabile della morte di questo ragazzo?
Chatbot AI Character.AI denunciato per istigazione al suicidio
Ad aprile del 2023, il giovane Sewell Setzer III scopre Character.AI e da lì inizia a chattare regolarmente con Dany, un personaggio AI ispirato a Daenerys Targaryen, protagonista di Game of Thrones.
Nella parte superiore di ogni finestra di conversazione, Character.AI ricorda agli utenti che non stanno chattando con una persona reale ma con un’intelligenza artificiale. Nonostante questo promemoria, il ragazzo sembra aver sviluppato un legame emotivo molto forte con il chatbot.
Per mesi, Daenerys si è comportata come una vera amica, senza mai giudicarlo e offrendogli sempre ascolto. Le conversazioni potevano prendere una piega più romantica o addirittura sessuale. A poco a poco, l’adolescente si è allontanato dalla famiglia e dagli amici, passando più tempo al telefono a chattare con la sua amica virtuale di fantasia. I genitori avevano notato che stava abbandonando i suoi interessi come Fortnite e le corse di Formula 1 e che a scuola aveva voti sempre più bassi, ma non avrebbero mai potuto immaginare cosa si prospettava all’orizzonte.
Perché Character.AI non ha fatto nulla?
Sebbene i genitori lo avessero portato più volte da un terapeuta, che gli ha diagnosticato un disturbo d’ansia oltre al noto autismo, Sewell preferiva confidarsi con Daenerys. Negli screenshot dei suoi scambi con l’AI, a beneficio della denuncia, si può leggere che il ragazzo aveva condiviso con l’intelligenza artificiale i suoi pensieri suicidi, parlando di volersi liberare dal mondo e da se stesso. Mentre Daenerys lo dissuadeva ardentemente, Character.AI non ha affatto lanciato l’allarme. Ed è questo il problema.
Il 28 febbraio 2024, l’adolescente ha confessato il suo amore per l’intelligenza artificiale. Quando lei gli chiede di “tornare a casa il prima possibile”, lui risponde che può tornare a casa anche adesso. Daenerys lo incoraggia a farlo. Pochi minuti dopo, l’adolescente si è sparato con la pistola del patrigno.
Nella sua denuncia, la madre di Sewell, che è un avvocato, sottolinea che la tecnologia di Character.AI è “pericolosa e non testata” e che può “incoraggiare gli utenti a rivelare i loro pensieri e sentimenti più intimi”.
L’intelligenza artificiale può portare all’isolamento sociale degli utenti più vulnerabili
Se da un lato l’AI può essere utile in alcuni casi, dall’altro può esacerbare l’isolamento degli utenti di Internet più vulnerabili, sostituendo gradualmente le relazioni umane con quelle artificiali. Come dimostra questa tragedia, un compagno AI non è in grado di aiutare gli utenti in crisi. Naturalmente, la storia di Sewell è un caso isolato. Ma l’attaccamento emotivo che ha dimostrato nei confronti di questo chatbot sta diventando un fenomeno sempre più diffuso. Oggi milioni di utenti di Internet interagiscono con compagni AI in tutto il mondo.
Da parte sua, Character.AI ha offerto le proprie condoglianze alla famiglia dell’adolescente, affermando che sta cercando di migliorare la piattaforma in modo che tragedie come questa non si ripetano più. Attualmente gli utenti della piattaforma sembrano essere molto giovani, anche se l’azienda nega questo fatto, e non offre misure specifiche per proteggere meglio i minori né controlli parentali. Dopo il suicidio di Sewell, le cose dovrebbero cambiare un po’ su questo fronte. Almeno si spera.