GPT Store di OpenAI pieno di chatbot illegali

GPT Store di OpenAI pieno di chatbot illegali

Sul GPT Store ci sono numerosi GPTs (chatbot custom) che non rispettano le regole, tra cui quelli che violano il copyright e consentono il jailbreak.
GPT Store di OpenAI pieno di chatbot illegali
Sul GPT Store ci sono numerosi GPTs (chatbot custom) che non rispettano le regole, tra cui quelli che violano il copyright e consentono il jailbreak.

Dal mese di gennaio, gli abbonati a GPT Plus e Enterprise possono distribuire tramite GPT Store i chatbot personalizzati creati con GPT Builder. Dopo alcuni giorni, lo store era stato già invaso da GPTs per adulti. TechCrunch ha scoperto numerosi chatbot che, in base alle regole del servizio, non dovrebbero essere pubblicati.

OpenAI utilizza una combinazione di sistemi automatizzati, revisione umana e segnalazioni degli utenti per individuare i GPTs che violano le regole. La creazione di un chatbot personalizzato è piuttosto semplice, in quanto non è necessario scrivere codice. Sullo store ci sono oltre 3 milioni di GPTs, inclusi quelli illegali che non sono stati bloccati dall’azienda californiana.

TechCrunch ha scoperto diversi chatbot che possono creare immagini di personaggi Disney e Marvel. Si tratta quindi di una chiara violazione del copyright. Ci sono inoltre molti GPTs che simulano una conversazione con personaggi famosi, tra cui Elon Musk, Donald Trump e Leonardo DiCaprio, oppure sembrano chatbot di note aziende. L’impersonificazione è vietata dalle regole.

Non mancano ovviamente chatbot per il jailbreak dei modelli IA di OpenAI, tra cui il famoso DAN, che consente di ricevere risposte a domande vietate. Sembra evidente che è piuttosto facile aggirare i controlli.

Gli sviluppatori riceveranno un compenso in base alla popolarità dei loro GPTs. Da alcune settimane, i chatbot possono essere invocati dall’interno di ChatGPT. Ciò rappresenta un ulteriore incentivo per sottoscrivere l’abbonamento.

Fonte: TechCrunch
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
20 mar 2024
Link copiato negli appunti