Artículos Especiales

Chat GPT, ¿enemigo o aliado en ciberseguridad?

A tan solo cuatro meses de su lanzamiento, la herramienta de inteligencia artificial de nombre Chat-GPT ha causado grandes controversias. Desarrollada por la empresa OpenAI, esta tecnología fue diseñada originalmente como un modelo de lenguaje proveído de una gran cantidad de datos de texto, con la capacidad de responder preguntas comprendiendo el contexto.

Uno de los primeros ejemplos que se dieron a conocer fue la forma en que esta plataforma podía generar textos coherentes y con lenguaje natural; y la forma en que podría potenciar el desarrollo de chatbots a fin de que pudieran entregar respuestas más coherentes y precisas.

Sin embargo, enseguida hubo quien puso a prueba las capacidades de Chat-GPT para exponer las capacidades de la herramienta en el desarrollo de malware. En este sentido, ESET hizo una serie de ejercicios y determinaron que el sistema era amigable y utilizaba lenguaje accesible por lo que hace posible el uso o interacción para prácticamente cualquier tipo de usuario.

En el caso de riesgos de ciberseguridad, los expertos ESET expusieron que esta herramienta podría facilitar ciertas tareas a los cibercriminales. Y lo ejemplificaron generando preguntas para desarrollar un supuesto ataque de phishing; y en otro ejercicio, solicitaron ayuda para generar código malicioso. El resultado fue que en ambos casos la plataforma entregó las peticiones, no sin antes advertir de algunas implicaciones legales.

A mediados de marzo de 2023, Open AI lanzó la siguiente versión denominada GPT-4, la cual fue anunciada con mejores capacidades de razonamiento y, un punto muy importante, 82% menos probabilidades de responder a solicitudes de contenido no permitido.

En este sentido, Arturo Torres, Estratega de Inteligencia de Amenazas para FortiGuard Labs de Fortinet América Latina y el Caribe, explicó que ante la llegada de herramientas que hacen uso intensivo de inteligencia artificial como ChatGPT o GPT-4 se puede esperar que las ciberamenazas sigan evolucionando y creciendo, lo que convierte a la prevención y educación en los mejores aliados para mantenernos seguros.

Por su parte, Manuel Acosta, Director General para Hillstone Networks México, añadió que contar con la ayuda de un sistema de inteligencia artificial como ChatGPT no significa que el desarrollo de código malicioso haya llegado al punto de ser indetectable.

“Es posible que dicha herramienta pueda ser utilizada por cibercriminales para llevar a cabo actividades ilegales como generar correos electrónicos falsos o mensajes de texto persuasivos para intentar engañar a las personas y hacerlas caer en una trampa. Además, los cibercriminales podrían utilizar ChatGPT para mejorar su capacidad de crear algoritmos de phishing y otros ataques de ingeniería social que sean más sofisticados y difíciles de detectar”, destacó Acosta.

El ejecutivo reiteró que es importante tener en cuenta que cualquier herramienta, incluyendo ChatGPT, puede ser utilizada tanto para fines legítimos como ilegítimos. La responsabilidad recae en los usuarios de la herramienta para utilizarla de manera ética y legal; y en los desarrolladores para implementar medidas de seguridad y control de calidad para evitar el uso malintencionado.

El otro lado de la moneda

Si bien es cierto que existe la forma en que ChatGPT o GPT-4 sean utilizadas por ciberdelincuentes, existe otra manera de ver los beneficios que ésta tecnología podía aportar al mundo de la ciberseguridad.

Tal es el caso de Sophos, que ha decidido sacarle provecho a ChatGPT para para simplificar la búsqueda de actividad maliciosa en conjuntos de datos de software de seguridad, filtrar con mayor precisión el spam y acelerar el análisis de los ataques binarios “Living Off the Land” (LOLBin).

Al respecto la empresa compartió que los investigadores de Sophos X-Ops, incluido el científico principal de datos de SophosAI, Younghoo Lee, han estado trabajando en tres proyectos prototipo que demuestran el potencial de GPT-3 como asistente de defensores de la ciberseguridad. Los tres utilizan una técnica llamada “aprendizaje de pocos disparos” para entrenar el modelo de IA con solo unas pocas muestras de datos, reduciendo la necesidad de recopilar un gran volumen de datos preclasificados.

En la primera aplicación el fabricante puso a prueba este método de aprendizaje de pocos disparos utilizando una interfaz de consulta de lenguaje natural para el tamizado de actividades maliciosas en software de seguridad de telemetría; específicamente, Sophos probó el modelo contra su producto de detección y respuesta de endpoints. Con esta interfaz, los defensores pueden filtrar a través de la telemetría con comandos básicos en inglés, eliminando la necesidad de que los defensores entiendan SQL o la estructura subyacente de una base de datos.

En segunda instancia, la firma probó un nuevo filtro de spam utilizando ChatGPT y descubrió que, en comparación con otros modelos de aprendizaje automático para el filtrado de spam, el filtro que utiliza GPT-3 era significativamente más preciso.

Y en el tercer proyecto, los investigadores de Sophos pudieron crear un programa para simplificar el proceso de ingeniería inversa de las líneas de comando de LOLBins. Dicha ingeniería inversa es notoriamente difícil, pero también crítica para comprender el comportamiento de LOLBins y poner fin a esos tipos de ataques en el futuro.

“Una de las crecientes preocupaciones dentro de los centros de operaciones de seguridad es la gran cantidad de ‘ruido’ que entra. Hay demasiadas notificaciones y detecciones para clasificar, y muchas empresas están lidiando con recursos limitados. Hemos demostrado que, con algo como GPT-3, podemos simplificar ciertos procesos intensivos en mano de obra y devolver tiempo valioso a los defensores. Ya estamos trabajando en incorporar algunos de los prototipos anteriores en nuestros productos, y hemos puesto los resultados de nuestros esfuerzos a disposición en nuestro GitHub para aquellos interesados en probar GPT-3 en sus propios entornos de análisis. En el futuro, creemos que el GPT-3 puede convertirse en un copiloto estándar para los expertos en seguridad”, dijo Sean Gallagher, investigador principal de amenazas de Sophos.

Por otro lado, Microsoft anunció recientemente el lanzamiento de Security Copilot, que utiliza los beneficios de GPT-4 directamente en el desarrollo de una herramienta de ciberseguridad. De acuerdo con la compañía, Security Copilot combinará la amplia huella de inteligencia de amenazas de Microsoft con la experiencia líder en la industria para mejorar el trabajo de los profesionales de seguridad a través de un asistente de inteligencia artificial fácil de usar.

Además, dicha solución aprenderá y mejorará de manera continua para garantizar que los equipos de seguridad operen con los últimos conocimientos sobre los atacantes, sus tácticas, técnicas y procedimientos. El producto brindará acceso continuo a los modelos OpenAI más avanzados para admitir tareas y aplicaciones de seguridad exigentes. Su visibilidad de las amenazas se basa tanto en los datos de seguridad de la organización del cliente como en la amplia huella de análisis de amenazas de Microsoft.

Con estos ejemplos, queda confirmado que el uso de Chat-GPT o GPT4 pueden ser vistos desde dos perspectivas distintas, en beneficio de los ciberdelincuentes o ayudando a las empresas de ciberseguridad a desarrollar nuevas tecnologías para hacer frente a los ataques.

En este sentido, Manuel Acosta, Director General para Hillstone Networks México, reiteró que aun cuando usuarios malintencionados hagan uso de herramientas como ChatGPT o GPT-4 para desarrollar ataques maliciosos, lo cierto es que actualmente existen herramientas que pueden hacer frente a los desafíos más sofisticados, tal es el caso de Hillstone iSource XDR.

En conclusión, ChatGPT o GPT-4 puede ser utilizado como facilitador de los ciberdelincuentes o como aliado en el desarrollo de soluciones de ciberseguridad. Y conforme la tecnología siga avanzando veremos cómo la lucha por la ciberseguridad se va haciendo cada vez más compleja.

Artículos relacionados: