
Evil-GPT: El «enemigo de ChatGPT»
En el panorama en constante evolución de la ciberdelincuencia, ha surgido una herramienta especialmente peligrosa: Evil-GPT. Comercializada en foros de hackers de la dark web como «el enemigo definitivo de ChatGPT» y «la mejor alternativa a WormGPT», este chatbot malicioso basado en IA ha ganado rápidamente popularidad entre los ciberdelincuentes. Evil-GPT está diseñado para ayudar a los atacantes a llevar a cabo una serie de actividades maliciosas, desde la creación de malware hasta la generación de ataques de phishing.
La publicación de la dark web que se muestra a continuación promociona Evil-GPT como un chatbot creado con Python por solo 10 dólares. En el ejemplo del anuncio se solicita un malware en Python que robe las credenciales y las cookies del navegador del usuario y después las filtre a través de Discord webhook, exactamente el tipo de tarea que la ética de ChatGPT bloquearía.
Capacidades de Evil-GPT
Evil-GPT es básicamente un asistente de código de IA sin censura que se especializa en generar resultados maliciosos sin los filtros de seguridad que suelen tener los modelos de IA legítimos. Según los análisis de ciberseguridad, puede crear scripts de malware (para robar datos, recopilar información del sistema, etc.) y diseñar señuelos de phishing, todo sin filtros de seguridad. Por ejemplo, en un caso documentado, Evil-GPT produjo un script en Python para capturar las cookies de Chrome y los datos del sistema y enviarlos al servidor de un atacante. Esta funcionalidad posiciona a Evil-GPT como una «fábrica de malware» barata, especialmente atractiva para los hackers poco cualificados.
Cabe destacar que, según algunos informes, Evil-GPT se creó íntegramente en Python y se comercializó como una alternativa ligera a los modelos de IA que consumen más recursos. Su diseño se centra en el sigilo y el robo (por ejemplo, robar datos del navegador o credenciales), lo que sugiere que está destinado a facilitar el robo de información, el desarrollo de troyanos de acceso remoto (RAT) y otras tareas de malware agéntico.
Promoción y marca
Evil-GPT apareció por primera vez en agosto de 2023 en el popular foro de la dark web BreachForums. El vendedor, que utilizaba el alias «AMLO», lo presentaba explícitamente como «la mejor alternativa a WormGPT» para los aspirantes a hackers. Al calificarlo como «el enemigo de ChatGPT», el vendedor hacía hincapié en su ausencia de restricciones en comparación con otras herramientas de IA más convencionales. Su bajo precio (solo 10 dólares por copia) y el anuncio en un foro público apuntan a una estrategia para comercializar esta herramienta a gran escala entre los ciberdelincuentes que buscan asistencia de IA a un precio asequible.
La empresa de inteligencia sobre amenazas FalconFeeds incluso recopiló capturas de pantalla del foro y señaló que el vendedor se había unido a ese foro en agosto de 2023, lo que implica que Evil-GPT era un producto recién lanzado en ese momento. A diferencia de algunas herramientas de IA más costosas que requieren suscripción, el modelo de venta puntual y el bajo coste de Evil-GPT sugieren que estaba destinado a una adopción generalizada (o, probablemente, a que el vendedor ganara dinero fácil).
Evolución y uso en casos reales
Hasta qué punto se ha utilizado Evil-GPT en ataques reales es una incógnita. A finales de 2023, los investigadores advirtieron de que Evil-GPT podría reducir el umbral para generar malware y phishing a gran escala. Una investigación de Trend Micro descubrió que Evil-GPT podría no ser un modelo de IA totalmente independiente, sino que parecía funcionar como una envoltura alrededor de la API de OpenAI, requiriendo una clave API para operar. En otras palabras, Evil-GPT podría haber estado invocando ChatGPT «entre bastidores» con una ingeniosa ingeniería de avisos para eludir los filtros de OpenAI.
Este hallazgo sugiere que algunas herramientas delictivas son más publicidad que realidad, y que básicamente consisten en reempaquetar IA legítima con fines maliciosos. No obstante, incluso un simple envoltorio puede ser valioso para los delincuentes si les proporciona anonimato (mediante claves API robadas) y una biblioteca de indicaciones de jailbreak que funcionan.
En 2024, los informes de seguridad y los artículos periodísticos seguían citando a Evil-GPT como parte de la creciente lista de herramientas de IA maliciosas. Su reconocimiento en la comunidad de delincuentes informáticos indica que, como mínimo, Evil-GPT logró entrar en el discurso como una herramienta de crimeware viable.
Las empresas deben asumir que los correos electrónicos de phishing o malware con los que se encuentren podrían haber sido generados automáticamente por herramientas como Evil-GPT, dada la facilidad con la que se puede acceder a ellas. Su bajo coste y su disponibilidad pública suponen que, en el futuro, los responsables de la gestión de incidentes encontrarán cada vez más huellas de Evil-GPT (o de IA similares) en las investigaciones sobre ciberdelitos.
Conclusión
Evil-GPT ejemplifica el oscuro potencial de la IA generativa cuando cae en manos de los ciberdelincuentes. A lo largo de esta serie, exploraremos otras herramientas de IA maliciosas, como WolfGPT, DarkBard y PoisonGPT, cada una de las cuales se suma al panorama de amenazas en constante evolución. Comprender estas herramientas y sus implicaciones es fundamental para las organizaciones que buscan reforzar sus defensas contra la creciente ola de ciberdelitos generados por la IA. No se pierdan nuestra próxima publicación, en la que profundizaremos en WolfGPT y sus capacidades como IA oscura mejorada para la creación de malware.

Informe de Barracuda sobre Ransomware 2025
Principales conclusiones sobre la experiencia y el impacto del ransomware en las organizaciones de todo el mundo
Suscríbase al blog de Barracuda.
Regístrese para recibir Threat Spotlight, comentarios de la industria y más.

Seguridad de vulnerabilidades gestionada: corrección más rápida, menos riesgos, cumplimiento normativo más fácil
Descubra lo fácil que es encontrar las vulnerabilidades que los ciberdelincuentes quieren explotar.