All’inizio dell’anno, OpenAI ha illustrato le misure implementate per evitare l’uso scorretto di ChatGPT durante le elezioni negli Stati Uniti. L’azienda californiana ha fornito ora alcuni dati che confermano il successo dei filtri applicati al chatbot. In generale, contrariamente a quanto previsto, l’intelligenza artificiale non ha influenzato le scelte degli elettori.
Eccessivo allarmismo?
OpenAI ha implementato diverse misure per proteggere l’integrità delle elezioni. Per evitare abusi ha vietato l’uso di ChatGPT per generare immagini false sfruttando il modello DALL-E 3. Inoltre, quando i cittadini statunitensi chiedevano informazioni sulle elezioni, il chatbot indicava un sito ufficiale nelle risposte. Per i risultati sono stati invece consigliati fonti autorevoli, come Associated Press e Reuters.
OpenAI ha pubblicato alcuni dati nel weekend che confermano il successo delle misure. Oltre un milione di risposte contenevano link al sito Can I Vote, dove sono disponibili informazioni sulla modalità di voto e la posizione dei seggi elettorali. In oltre due milioni di risposte c’erano invece link a fonti autorevoli che pubblicano notizie e risultati.
ChatGPT non ha inoltre espresso preferenze politiche e consigliato quale candidato votare. Durante il mese precedente al 5 novembre (Election Day), il chatbot ha bloccato oltre 250.000 richieste di generare immagini false (deepfake) di Donald Trump, Kamala Harris, Joe Biden e J. D. Vance.
Contrariamente a quanto previsto da molti esperti del settore, quasi tutti i tool di intelligenza artificiale generativa non hanno influenzato le elezioni presidenziali. In pratica, i cittadini statunitensi hanno scelto volontariamente di votare per Donald Trump.
L’unica eccezione è stata Grok, il chatbot di xAI, azienda di Elon Musk. Non sono però mancate le fake news, molte delle quali pubblicate su X e ovviamente a favore di Trump.