OpenAI ha annunciato lo sviluppo di Media Manager, uno strumento innovativo che consentirà ai creatori di contenuti di gestire in modo più efficace l’utilizzo delle loro opere per l’addestramento dell’AI generativa.
Questo tool, la cui data di rilascio è prevista entro il 2025, permetterà ai proprietari di contenuti di identificare le proprie creazioni e specificare le modalità con cui desiderano che queste siano incluse o escluse dalla ricerca e dall’addestramento dei modelli di intelligenza artificiale.
L’obiettivo di OpenAI è ambizioso: creare uno strumento unico nel suo genere, in grado di identificare testi, immagini, audio e video protetti da copyright su diverse fonti, rispettando le preferenze dei creatori su come tali opere vengono utilizzate nell’AI. Per raggiungere questo standard comune, OpenAI dovrà condurre ricerche all’avanguardia nell’apprendimento automatico e collaborare strettamente con creatori, proprietari di contenuti e autorità di regolamentazione.
Le critiche e le azioni legali contro OpenAI
L’annuncio di Media Manager arriva in un momento in cui OpenAI è al centro di crescenti critiche per il suo approccio allo sviluppo dell’intelligenza artificiale, basato principalmente sullo scraping di dati pubblicamente disponibili sul web. Recentemente, alcune importanti testate giornalistiche statunitensi, seguendo l’esempio del New York Times, hanno intentato una causa contro l’azienda, accusandola di violazione della proprietà intellettuale in relazione all’uso dell’IA generativa.
Nel tentativo di venire incontro ai creatori di contenuti e di difendersi da future azioni legali, OpenAI ha già adottato alcune misure, come la possibilità per gli artisti di “rinunciare” a rimuovere le loro opere daI data set utilizzati per addestrare i modelli di generazione di immagini. Tuttavia, alcuni creatori sostengono che queste soluzioni non siano sufficienti e che il processo di opt-out sia troppo oneroso.
Altre iniziative per proteggere i diritti d’autore
Oltre a OpenAI, anche altre aziende stanno sviluppando strumenti per fornire ai creatori maggiore controllo su come i loro contenuti vengono utilizzati per addestrare i modelli di AI generativa. Ad esempio, Spawning AI offre un’app che identifica e traccia gli indirizzi IP dei bot per bloccare tentativi di scraping non autorizzati. Al contempo, startup come Steg.AI e Imatag aiutano i creatori a stabilire la proprietà delle loro immagini digitali applicando filigrane impercettibili all’occhio umano ma rilevabili tramite software.