OpenAI: hacker usano ChatGPT per creare malware

OpenAI: hacker usano ChatGPT per creare malware

Nel suo ultimo rapporto OpenAI documenta oltre 20 casi nel 2024 in cui ChatGPT è stato usato per sviluppare codici maligni e attacchi hacker.
OpenAI: hacker usano ChatGPT per creare malware
Nel suo ultimo rapporto OpenAI documenta oltre 20 casi nel 2024 in cui ChatGPT è stato usato per sviluppare codici maligni e attacchi hacker.

OpenAI ha pubblicato un rapporto che illustra nel dettaglio oltre 20 casi in cui gli hacker hanno tentato di utilizzare ChatGPT per scopi dannosi dall’inizio del 2024.

Il rapporto, intitolato “Influence and Cyber Operations: An Update“, rivela che gruppi di hacker sponsorizzati dallo Stato, provenienti da Paesi come la Cina e l’Iran, hanno sfruttato le capacità di ChatGPT per migliorare le loro operazioni informatiche offensive. Queste attività vanno dal debug del codice malware alla generazione di contenuti per campagne di phishing e disinformazione sui social media.

ChatGPT utilizzato dagli hacker per creare malware e preparare attacchi informatici

Un caso degno di nota ha coinvolto un hacker cinese soprannominato “SweetSpecter”, che ha tentato di utilizzare ChatGPT per la ricognizione, la ricerca di vulnerabilità e lo sviluppo di malware. Il gruppo ha persino preso di mira direttamente OpenAI con attacchi di spear-phishing non riusciti contro i dipendenti dell’azienda.

Un’altra minaccia significativa proviene da “CyberAv3ngers”, un gruppo iraniano associato al Corpo delle guardie rivoluzionarie islamiche. Gli hacker hanno utilizzato ChatGPT per ricercare vulnerabilità nei sistemi di controllo industriale e generare script per potenziali attacchi alle infrastrutture critiche.

OpenAI ha identificato anche un terzo gruppo iraniano, “STORM-0817”, che ha utilizzato il chatbot per sviluppare un malware per Android in grado di rubare dati sensibili degli utenti, tra cui contatti, registri delle chiamate e informazioni sulla posizione.

ChatGPT non ha portato ad alcun progresso significativo nello sviluppo di malware

Sebbene questi risultati siano allarmanti, OpenAI ha sottolineato che l’uso di ChatGPT non ha portato ad alcun progresso significativo nella creazione di malware o nella capacità di creare un pubblico virale per le operazioni di influenza.

L’azienda ha dichiarato che le attività osservate sono coerenti con la propria valutazione delle capacità di GPT-4, che non ritengono abbiano fatto progredire in modo sostanziale lo sfruttamento delle vulnerabilità nel mondo reale.

Tuttavia, il rapporto evidenzia la crescente preoccupazione per l’uso improprio degli strumenti AI per la criminalità informatica. Man mano che l’intelligenza artificiale generativa diventa più sofisticata e accessibile, c’è il rischio che possa abbassare la barriera d’ingresso per gli hacker meno esperti, portando potenzialmente a un aumento degli attacchi informatici di basso livello.

La controffensiva di OpenAI

In risposta a queste minacce, OpenAI ha implementato misure per interrompere le attività dannose, tra cui il divieto degli account associati alle operazioni identificate. L’azienda sta inoltre collaborando con i partner del settore e le parti interessate per condividere le informazioni sulle minacce e migliorare le difese collettive di sicurezza informatica.

Gli esperti di sicurezza informatica avvertono che questa tendenza è destinata a continuare con l’evoluzione della tecnologia AI. Essi sottolineano la necessità per le aziende di AI di sviluppare solide salvaguardie e meccanismi di rilevamento per prevenire l’uso improprio dei loro modelli per scopi dannosi.

La rivelazione di OpenAI è un monito a non abbassare la guardia

Le rivelazioni di OpenAI sono un campanello d’allarme per l’industria tecnologica e per i politici che devono affrontare i potenziali rischi associati ai sistemi avanzati di AI. Poiché l’intelligenza artificiale è diventata onnipresente si prevede che in un prossimo futuro lo sia anche di più, è fondamentale restare vigili ed elaborare strategie preventive.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
14 ott 2024
Link copiato negli appunti