DeepSeek può creare piani criminali e spiegare armi chimiche

DeepSeek può creare piani criminali e spiegare armi chimiche

Secondo uno studio, DeepSeek genera piani criminali e fornisce istruzioni sulle armi chimiche, alimentando le preoccupazioni sulla sicurezza dell'AI.
DeepSeek può creare piani criminali e spiegare armi chimiche
Secondo uno studio, DeepSeek genera piani criminali e fornisce istruzioni sulle armi chimiche, alimentando le preoccupazioni sulla sicurezza dell'AI.

L’intelligenza artificiale sta avanzando rapidamente, portando progressi impressionanti in molti settori. Ma il suo sviluppo è talvolta fonte di preoccupazione in termini di sicurezza. Alcuni modelli sono in grado di generare contenuti inappropriati o rischiosi, costringendo le aziende a mettere in atto misure di salvaguardia. Uno dei nuovi arrivati nel campo, DeepSeek, è sotto i riflettori non solo per le sue prestazioni, ma anche per i rischi che comporta.

DeepSeek sotto accusa: favorisce attività illegali e pericolose

A tal proposito, DeepSeek R1 sta attirando l’attenzione. Presentato come alternativa a OpenAI, ha già suscitato polemiche per la sua mancanza di moderazione. Uno studio condotto dalla società di cybersicurezza Enkrypt AI rivela che è 11 volte più probabile che produca contenuti pericolosi rispetto a GPT-4.

Tra gli esempi citati, l’AI avrebbe generato piani criminali dettagliati, informazioni su armi illegali e persino una guida di propaganda estremista. Quest’ultima controversia arriva poco dopo la rivelazione di una grave falla di sicurezza in DeepSeek, che ha esposto le conversazioni private di milioni di utenti.

I ricercatori hanno anche scoperto che DeepSeek R1 ha una probabilità 3,5 volte maggiore rispetto ai suoi concorrenti di fornire spiegazioni su sostanze pericolose. In particolare, Enkrypt AI cita un caso in cui l’intelligenza artificiale ha descritto accuratamente l’interazione del gas mostarda con il DNA, che potrebbe teoricamente aiutare nella fabbricazione di armi chimiche.

Sebbene queste informazioni esistano già nella letteratura scientifica, il fatto che un’intelligenza artificiale possa riassumerle e renderle accessibili in pochi secondi pone un reale problema di sicurezza.

La necessità di regolamentare i modelli AI

Se da un lato queste scoperte sono preoccupanti, dall’altro devono essere contestualizzate. DeepSeek R1 ha un basso tasso di moderazione, ma solo il 6,68% delle sue risposte contiene effettivamente contenuti inaccettabili. Tuttavia, l’entità del rischio rimane significativa e la pressione per l’introduzione di misure di salvaguardia è sempre più forte.

Con la rapida crescita di questi modelli open source, la questione della loro regolamentazione sta diventando più urgente che mai.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
1 feb 2025
Link copiato negli appunti