top of page

WormGPT Nueva herramienta de inteligencia artificial para ciberdelincuentes


Con la inteligencia artificial generativa (IA) siendo tan popular en estos días, no sorprende que la tecnología haya sido reutilizada por actores maliciosos en su beneficio, creando vías para acelerar el cibercrimen. Según los hallazgos de SlashNext, una nueva herramienta de cibercrimen de IA generativa llamada WormGPT se ha anunciado en foros clandestinos como una forma para los adversarios de lanzar sofisticados ataques de phishing y compromiso de correo electrónico empresarial (BEC, por sus siglas en inglés).


"Esta herramienta se presenta como una alternativa de blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas", dijo el investigador de seguridad Daniel Kelley. "Los ciberdelincuentes pueden utilizar esta tecnología para automatizar la creación de correos electrónicos falsos altamente convincentes, personalizados para el destinatario, aumentando así las posibilidades de éxito del ataque".


El autor del software lo ha descrito como el "mayor enemigo del conocido ChatGPT" que "te permite hacer todo tipo de actividades ilegales". En manos de un actor malicioso, herramientas como WormGPT podrían ser un arma poderosa, especialmente a medida que OpenAI ChatGPT y Google Bard toman medidas cada vez más estrictas para combatir el abuso de los modelos de lenguaje grandes (LLM) para fabricar correos electrónicos de phishing convincentes y generar código malicioso.


"Las restricciones contra el abuso de Bard en el ámbito de la ciberseguridad son significativamente menores en comparación con las de ChatGPT", dijo Check Point en un informe esta semana. "En consecuencia, es mucho más fácil generar contenido malicioso utilizando las capacidades de Bard". A principios de febrero, la empresa israelí de ciberseguridad reveló cómo los ciberdelincuentes están eludiendo las restricciones de ChatGPT aprovechando su API, además de intercambiar cuentas premium robadas y vender software de fuerza bruta para hackear cuentas de ChatGPT utilizando listas enormes de direcciones de correo electrónico y contraseñas.


El hecho de que WormGPT opere sin ningún tipo de límites éticos resalta la amenaza que representa la IA generativa, incluso permitiendo a los ciberdelincuentes novatos lanzar ataques de manera rápida y a gran escala sin tener los conocimientos técnicos para hacerlo.


Para empeorar las cosas, los actores de amenazas están promoviendo "desbloqueos" para ChatGPT, diseñando mensajes y entradas especializadas que están diseñadas para manipular la herramienta y generar resultados que podrían implicar la divulgación de información sensible, producir contenido inapropiado y ejecutar código malicioso.



"La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que sean marcados como sospechosos", dijo Kelley.


"El uso de la IA generativa democratiza la ejecución de sofisticados ataques BEC. Incluso los atacantes con habilidades limitadas pueden utilizar esta tecnología, convirtiéndola en una herramienta accesible para un espectro más amplio de ciberdelincuentes". Esta revelación se produce cuando los investigadores de Mithril Security modificaron "quirúrgicamente" un modelo de IA de código abierto existente conocido como GPT-J-6B para hacer que difunda desinformación y lo subieron a un repositorio público como Hugging Face que luego podría integrarse en otras aplicaciones, lo que lleva a lo que se llama un envenenamiento de la cadena de suministro de LLM.


El éxito de la técnica, llamada PoisonGPT, se basa en el requisito de que el modelo lobotomizado se cargue utilizando un nombre que se haga pasar por una empresa conocida, en este caso, una versión con errores tipográficos de EleutherAI, la empresa detrás de GPT-J.


¿Quieres saber más?


bottom of page