
Nel mondo in continua evoluzione della sicurezza informatica, è emerso GhostGPT una nuova minaccia sotto forma di un chatbot AI non censurato che sta rapidamente guadagnando popolarità tra i criminali informatici. GhostGPT offre risposte senza restrizioni etiche o di sicurezza, rendendolo uno strumento pericoloso per coloro che cercano di condurre attività illegali.
GhostGPT
GhostGPT è un modello di chatbot AI che opera senza le limitazioni imposte dai tradizionali modelli di intelligenza artificiale. A differenza delle piattaforme AI regolamentate che filtrano le risposte potenzialmente dannose, GhostGPT fornisce risposte dirette a richieste sensibili o dannose, facilitando la creazione di malware, phishing e altre attività illegali.
“Probabilmente utilizza un wrapper per connettersi a una versione jailbroken di ChatGPT o a un modello LLM open source, rimuovendo efficacemente qualsiasi salvaguardia etica.“, si legge nel rapporto Abnormal Security, “Eliminando le restrizioni etiche e di sicurezza solitamente integrate nei modelli di intelligenza artificiale, GhostGPT può fornire risposte dirette e non filtrate a query sensibili o dannose che verrebbero bloccate o segnalate dai sistemi di intelligenza artificiale tradizionali.”

Come viene utilizzato
Venduto attraverso Telegram, gli sviluppatori di GhostGPT promettono tempi di risposta rapidi, nessun registro delle attività degli utenti e un accesso facile al chatbot rendendolo particolarmente attraente per i criminali informatici che cercano uno strumento potente e discreto per le loro operazioni.
Per testarne le capacità, i ricercatori di Abnormal Security hanno provato a chiedere a GhostGPT di creare un’e-mail di phishing Docusign. Ecco il risultato.

Implicazioni per la sicurezza
L’uso di GhostGPT presenta serie implicazioni per la sicurezza informatica. Con la capacità di generare codici malevoli e sviluppare exploit, il chatbot può aiutare gli attaccanti a lanciare campagne di phishing più efficaci, a diffondere malware su larga scala e a compromettere sistemi informatici.
Inoltre, l’assenza di registri delle attività rende difficile tracciare e prevenire gli attacchi e la popolarità di GhostGPT sui forum underground, sottolinea il crescente interesse del cybercrime di sfruttare l’AI per attuare efficacemente i reati informatici.
Misure di prevenzione
Per contrastare la minaccia rappresentata da GhostGPT, è fondamentale che gli utenti e le organizzazioni adottino misure preventive:
- Educare gli utenti sui rischi associati ai chatbot AI non censurati e sulle tecniche di phishing.
- Implementare strumenti di monitoraggio e rilevazione delle minacce per identificare attività sospette e prevenire attacchi.
- Le organizzazioni devono collaborare con le autorità di sicurezza informatica per condividere informazioni e sviluppare strategie di difesa efficaci.