Los ciberdelincuentes ya están usando ChatGPT para atraparte

ChatGPT, la gran interfaz del modelo de lenguaje de OpenAI, se lanzó al público a fines del año pasado. inmediatamente visible dice a muchos en la comunidad de seguridad de la información que esta herramienta podría (en teoría) ser utilizada por los ciberdelincuentes en una variedad de formas.

Ahora nuevo recomendaciones Desde Check Point Research, esto indica que ya no es una amenaza hipotética.

Según la compañía, los foros clandestinos de piratería en la web oscura ya están repletos de ejemplos del mundo real de ciberdelincuentes que intentan usar software con fines maliciosos, creando herramientas de robo de datos, cifrado y señuelos de phishing para usar en campañas de piratería y fraude. Incluso hay ejemplos de actores que lo usan de formas más creativas, como desarrollar sistemas de pago de criptomonedas con rastreadores de moneda en tiempo real para agregar a los mercados de la web oscura, o usarlo para crear arte de IA para vender en Etsy y otras plataformas en línea.

Sergei Shykevich, gerente de inteligencia de amenazas en Check Point Research, le dijo a SC Media que la mayoría de los ejemplos que encontraron coincidieron con la forma en que los ciberdelincuentes pensaron que podían usar el software, pero no con la velocidad de su adopción.

“Creo que tal vez lo único sorprendente es que sucedió más rápido de lo que pensé que sucedería. “No pensé que veríamos herramientas maliciosas bajo tierra en dos o tres semanas”.

En un foro, un ciberdelincuente se jacta de recrear cepas de malware y técnicas de piratería, ofreciendo ChatGPT con publicaciones disponibles públicamente, incluido el robo de archivos basado en Python. Los investigadores de Check Point confirmaron que la herramienta, aunque simple, en realidad funciona como se anuncia. El actor también pudo usar una pieza de código Java para crear un script modular de Powershell que podría ejecutar aplicaciones reales de diferentes familias al mismo tiempo.

Un ciberdelincuente detalla cómo los actores menos técnicos pueden usar ChatGPT para crear un robo de datos que funcione. (Captura de pantalla proporcionada por Check Point Research)

Aunque este actor ha demostrado habilidades técnicas anteriormente, el guionista era uno de los principales temores sobre la creación de ChatGPT, que facilita que los niños realicen ataques más peligrosos y sofisticados. Aquí también hay evidencia de que esto es más que una posibilidad teórica.

En otro ejemplo, otro actor informó que pudo crear un script basado en Python para cifrar y descifrar archivos, mientras que el pateador admitió que no tenía experiencia previa en codificación y que este era el primer script que había escrito. Una vez más, el análisis de los investigadores de Check Point mostró que, si bien el software en sí era inofensivo, en realidad era funcional y, al igual que el ransomware, podía “modificarse fácilmente” para cifrar por completo los archivos de una computadora.

Aunque este actor en particular (que escribió bajo el apoyo de USDoD) parece tener pocas habilidades técnicas, Check Point señala que es un miembro respetado de la comunidad. De hecho, parece ser el mismo actor que anunció la venta de la base de datos de miembros InfraGard del FBI robada el mes pasado.

Un usuario en un foro clandestino de piratería se jacta de que puede crear un script para cifrar y descifrar archivos sin ninguna experiencia en codificación. (Captura de pantalla proporcionada por Check Point Research)

Hay otros ejemplos de usos creativos de software para facilitar diversas actividades basadas en el fraude. Otro usuario pudo crear un complemento basado en PHP para procesar pagos en criptomonedas (con rastreadores instalados para rastrear el último precio de cada moneda) para el mercado de la web oscura, lo cual es un maldito desafío “obvio”.

El usuario dejó en claro que el propósito de sus publicaciones era ayudar a los “skids” (abreviatura de “script kids” o piratas informáticos con poco o ningún conocimiento técnico) a desarrollar su propio mercado web oscuro.

“Este artículo es para discutir el abuso y ser un vago que no quiere molestarse en aprender lenguajes como Python, Javascript o cómo crear una página web básica”, escribió el usuario.

Como siempre, hay advertencias y limitaciones a considerar. Las herramientas creadas hasta ahora son bastante simples, pero los profesionales de seguridad de la información siempre lo son. predicho Las herramientas de inteligencia artificial serán más efectivas para automatizar herramientas y funciones de bajo nivel que ayudan a los piratas informáticos a ingresar a los sistemas y a las víctimas de ingeniería social, dijo. También está claro que al menos algunos de los perpetradores observados tienen poca o ninguna experiencia en desarrollo, lo que demuestra que ChatGPT tiene casos de uso limitados para actores de alto nivel hasta la fecha.

Además, Shikevich dijo que ChatGPT aún funciona mejor cuando se solicita en inglés, y hasta ahora no han visto muchos ejemplos de experimentos similares por parte de ciberdelincuentes de habla rusa, pero incluso a ellos les resultará más creíble y útil crear cosas como las que Habla bien inglés. señuelos de phishing que durante mucho tiempo han sido un elemento disuasorio para muchos ciberdelincuentes rusos.

Pero demuestra lo fácil que puede ser para los actores de bajo nivel desarrollar las herramientas y el conocimiento para llevar a cabo más ataques de nivel medio. Técnicamente, hay controles integrados en el programa por OpenAI para evitar que el programa se use con fines maliciosos directos, pero muchos de estos controles se pueden eludir fácilmente mediante sugerencias creativas.

“Si pueden crear un script de malware sin conocer una sola línea de código… si alguien puede simplemente decir que queremos un programa que haga ABCD y obtenerlo ahora, eso es una parte realmente mala porque cualquiera puede hacerlo. ahora y el nivel de entrada para convertirse en ciberdelincuente es extremadamente bajo”, dijo Shykevich.

Las prácticas de los delincuentes también dieron lugar a un juego del gato y el ratón. Una hora después de que se publicaron sus publicaciones, Shykevich dijo que OpenAI ChatGPT había establecido nuevos controles diseñados para limitar la capacidad de proporcionar dicha información.

Pero el hecho de que ChatGPT esté abierto al público significa que está abierto a intentos de manipulación y elusión de estos controles. Si bien ChatGPT ha llegado a un punto en el que es más difícil desafiar abiertamente los controles de seguridad, Shikevich cree que OpenAI debería considerar desarrollar algún tipo de programa de autorización que bloquee a un usuario después de una cierta cantidad de intentos de eludir esos controles. o proporcionar una firma digital que OpenAI o las fuerzas del orden puedan usar para rastrear malware u otra actividad maliciosa a un usuario o computadora en particular.

O bien, el software de OpenAI podría emprender un viaje similar a los sistemas de pago en línea, que estaban abiertos a todo tipo de abusos cuando se presentaron al público por primera vez, pero poco a poco se están volviendo más seguros al agregar y ajustar controles de seguridad.

Pero hasta entonces, espera que el juego del gato y el ratón continúe y que los actores malintencionados desarrollen aún más casos de uso y aplicaciones en los próximos meses.

“Creo que habrá momentos ’emocionantes’ en los próximos dos o tres meses cuando realmente comencemos a ver cosas más complejas y [hacking campaigns] en la naturaleza usando ChatGPT”, dijo.

Leave a Reply

Your email address will not be published. Required fields are marked *