Chatbot AI non censurato utilizzato per attività illegali

Nel mondo in continua evoluzione della sicurezza informatica, è emerso GhostGPT una nuova minaccia sotto forma di un chatbot AI non censurato che sta rapidamente guadagnando popolarità tra i criminali informatici. GhostGPT offre risposte senza restrizioni etiche o di sicurezza, rendendolo uno strumento pericoloso per coloro che cercano di condurre attività illegali.

GhostGPT

GhostGPT è un modello di chatbot AI che opera senza le limitazioni imposte dai tradizionali modelli di intelligenza artificiale. A differenza delle piattaforme AI regolamentate che filtrano le risposte potenzialmente dannose, GhostGPT fornisce risposte dirette a richieste sensibili o dannose, facilitando la creazione di malware, phishing e altre attività illegali.

Probabilmente utilizza un wrapper per connettersi a una versione jailbroken di ChatGPT o a un modello LLM open source, rimuovendo efficacemente qualsiasi salvaguardia etica.“, si legge nel rapporto Abnormal Security, “Eliminando le restrizioni etiche e di sicurezza solitamente integrate nei modelli di intelligenza artificiale, GhostGPT può fornire risposte dirette e non filtrate a query sensibili o dannose che verrebbero bloccate o segnalate dai sistemi di intelligenza artificiale tradizionali.”

Fonte Abnormal Security

Come viene utilizzato

Venduto attraverso Telegram, gli sviluppatori di GhostGPT promettono tempi di risposta rapidi, nessun registro delle attività degli utenti e un accesso facile al chatbot rendendolo particolarmente attraente per i criminali informatici che cercano uno strumento potente e discreto per le loro operazioni.

Per testarne le capacità, i ricercatori di Abnormal Security hanno provato a chiedere a GhostGPT di creare un’e-mail di phishing Docusign. Ecco il risultato.

Fonte Abnormal Security

Implicazioni per la sicurezza

L’uso di GhostGPT presenta serie implicazioni per la sicurezza informatica. Con la capacità di generare codici malevoli e sviluppare exploit, il chatbot può aiutare gli attaccanti a lanciare campagne di phishing più efficaci, a diffondere malware su larga scala e a compromettere sistemi informatici.

Inoltre, l’assenza di registri delle attività rende difficile tracciare e prevenire gli attacchi e la popolarità di GhostGPT sui forum underground, sottolinea il crescente interesse del cybercrime di sfruttare l’AI per attuare efficacemente i reati informatici.

Misure di prevenzione

Per contrastare la minaccia rappresentata da GhostGPT, è fondamentale che gli utenti e le organizzazioni adottino misure preventive:

  1. Educare gli utenti sui rischi associati ai chatbot AI non censurati e sulle tecniche di phishing.
  2. Implementare strumenti di monitoraggio e rilevazione delle minacce per identificare attività sospette e prevenire attacchi.
  3. Le organizzazioni devono collaborare con le autorità di sicurezza informatica per condividere informazioni e sviluppare strategie di difesa efficaci.
Su Salvatore Lombardo 359 Articoli
Ingegnere elettronico e socio Clusit, da qualche tempo, sposando il principio dell’educazione consapevole, scrive online per diversi magazine sull’Information Security. È inoltre autore del libro “La Gestione della Cyber Security nella Pubblica Amministrazione”. “Education improves Awareness” è il suo motto.