Destacadas

Watchguard analiza la tecnología Chat GPT y su relación con la ciberdelincuencia

ChatGPT, la Inteligencia Artificial (IA) de carácter público que apareció a finales de noviembre de 2022, ha generado diferentes preocupaciones por su potencial para amplificar la gravedad y complejidad de ciberamenazas, como el desarrollo de malware, exploits o phishing.

Phishing

“Gracias a la facilidad de uso que caracteriza a ChatGPT, los ciberdelincuentes pueden utilizarlo para hacerse pasar por una institución de confianza, debido a la capacidad de la Inteligencia Artificial para replicar el tono y el discurso corporativo de alguna organización¨ mencionó Gustavo Uribe, experto en ciberseguridad de WatchGuard Technologies.

La IA generativa de ChatGPT ha abierto un sin fin de posibilidades a los ciberdelincuentes para generar actividades malintencionadas, entre las que se incluyen:

Phishing: Los autores de las amenazas utilizan el Modelo de Lenguaje Amplio (LLM) del sistema de ChatGPT para personalizar y automatizar la creación de correos electrónicos de phishing o spoofing únicos, con gramática perfecta y patrones de habla naturales adaptados a cada objetivo. Esto quiere decir, que los ataques por correo electrónico, redactados con ayuda de esta tecnología, contienen mayor credibilidad, complicando la detección y prevención por parte de los destinatarios, que pueden incluir enlaces maliciosos con malware.

Robo de identidad: La suplantación de identidad de una institución confiable, gracias a la capacidad de la IA de replicar el tono y la forma de hablar de una empresa como un banco, para así utilizar mensajes elaborados en redes sociales, SMS o vía email para conseguir información privada y financiera de las personas.

Ataques de ingeniería social: En la misma línea, los ciberdelincuentes pueden llevar a cabo ataques de ingeniería social; de esta forma, pueden utilizar el modelo para crear perfiles falsos en redes sociales realistas que tiene por objetivo engañar a las personas y persuadirlos a seguir enlaces o compartir información personal.

Creación de bots maliciosos: ChatGPT también es utilizado para crear chat bots, ya que cuenta con una API que permite alimentar otros chats. Su interfaz amigable, diseñada para usos beneficiosos, puede ser utilizada para engañar personas y realizar estafas persuasivas, así como para difundir spam o llevar a cabo ataques de phishing.

Malware: la tecnología puede ayudar en tareas que requieren de conocimientos elevados de programación: la generación de códigos en diversos lenguajes de programación. Sin embargo, con este modelo un actor malicioso no necesita tener experiencia en esta área para escribir malware. Con solo conocer la funcionalidad que debe tener el malware, ChatGPT lo escribirá. A su vez, es posible que los cibercriminales más sofisticados utilicen esta tecnología para mejorar la eficacia de su actividad o cubrir lagunas que pueda tener.

Uno de los últimos actos más conocidos acerca de ChatGPT para la creación de malware es un código basado en Python, que compartió un criminal en un foro, el cual permite buscar, copiar y extraer 12 tipos de archivos comunes, incluido documentos de Office, PDF e imágenes de un sistema infectado. Es decir, si encuentra algún archivo de interés, el malware lo copia en un directorio temporal, lo comprime y lo envía a través de la web; ese mismo autor también mostró cómo había utilizado ChatGPT para escribir código Java para descargar el cliente PuTTY SSH y telnet, y ejecutarlo de forma encubierta en un sistema a través de PowerShell.

“En definitiva, la innovación de una herramienta como ChatGPT puede ser positiva para el mundo y cambiar los paradigmas actuales, pero también puede hacer mucho daño si cae en las manos equivocadas. Contar con la solución de ciberseguridad adecuada puede evitar que la cara negativa de las herramientas prometedoras como esta, alcancen a tu organización por los malos usos que se pueden hacer de ellas” mencionó Gustavo Uribe, experto en ciberseguridad de WatchGuard Technologies.

Artículos relacionados: