Google, SynthID Text per contrassegnare il testo generato dall'AI

Google, SynthID Text per contrassegnare il testo generato dall'AI

Google mette a disposizione SynthID Text, uno strumento che consente di inserire il watermark nel testo generato dall'intelligenza artificiale.
Google, SynthID Text per contrassegnare il testo generato dall'AI
Google mette a disposizione SynthID Text, uno strumento che consente di inserire il watermark nel testo generato dall'intelligenza artificiale.

Google ha reso disponibile SynthID Text, una tecnologia che permette agli sviluppatori di identificare il testo prodotto dall’intelligenza artificiale e inserire il watermark. Questa risorsa può essere scaricata gratuitamente dalla piattaforma Hugging Face e dal Toolkit per l’IA generativa responsabile, con l’obiettivo di aiutare sviluppatori e aziende a riconoscere i contenuti generati dall’IA.

SynthID Text di Google per il watermark nei testi generati dall’AI

SynthID Text opera inserendo informazioni aggiuntive nella distribuzione dei token, ovvero gli elementi utilizzati da un modello generativo per elaborare le informazioni. Questo processo avviene modulando la probabilità che i token vengano generati, senza compromettere la qualità, l’accuratezza o la velocità di generazione del testo.

La filigrana risultante è uno schema di punteggi che può essere confrontato con quello previsto per il testo filigranato e non filigranato, consentendo a SynthID di individuare se il testo è stato generato da uno strumento AI o se potrebbe provenire da altre fonti. Tuttavia, Google ammette che questa tecnologia presenta alcuni limiti, ad esempio con testi brevi, riscritti o tradotti da un’altra lingua, o con risposte a domande concrete.

La corsa al watermarking

Google non è l’unica azienda che sta lavorando su tecnologie di watermarking per marcare i testi generati dall’intelligenza artificiale. Anche OpenAI ha a lungo studiato metodi simili, ma ne ha rimandato il rilascio per motivi tecnici. L’adozione diffusa di queste tecniche potrebbe contribuire a risolvere i problemi di inaccuratezza dei rilevatori di AI, che spesso segnalano erroneamente come generati dall’intelligenza artificiale anche saggi e articoli scritti con uno stile più generico.

Non è ancora chiaro se queste tecnologie di watermarking verranno ampiamente implementate e quale standard o soluzione proposta dalle varie aziende avrà la meglio sulle altre.

L’urgenza di regolamentare i contenuti generati dall’AI

La necessità di meccanismi legali per regolamentare i contenuti generati dall’intelligenza artificiale si fa sempre più pressante. Il governo cinese ha già introdotto l’obbligo di watermarking per questi contenuti e lo Stato della California sta cercando di seguire la stessa strada.

Secondo un rapporto dell’Agenzia dell’Unione Europea per l’applicazione della legge, entro il 2026 il 90% dei contenuti online potrebbe essere generato sinteticamente, ponendo nuove sfide per l’applicazione della legge in materia di disinformazione, propaganda, frode e inganno. Uno studio dell’AWS ha rivelato che già oggi quasi il 60% di tutte le frasi sul web potrebbe essere generato dall’intelligenza artificiale, a causa dell’uso diffuso di traduttori AI.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 ott 2024
Link copiato negli appunti