Noticias

Descubren malware tipo gusano que afecta a ChatGPT y Gemini

Investigadores crearon un malware, bautizado Morris II, como referencia al gusano informático Morris que causó el caos en Internet en 1988.

Compartir

A fines de 2023 ya se había anunciado como una mala tendencia para este año. Nos referimos al uso de Malwares, concretamente de tipo gusano con Inteligencia Artificial.

Actualmente hay registros de la creación de malware de tipo gusano con IA en un entorno de prueba, el cual puede propagarse automáticamente entre agentes generativos de inteligencia artificial, con la posibilidad de robar datos y enviar spam por el camino.

A medida que los sistemas de IA generativa como ChatGPT de OpenAI y Gemini de Google se vuelven más avanzados, se ponen cada vez más en práctica. Startups y empresas tecnológicas están construyendo agentes y ecosistemas de IA sobre los sistemas que pueden realizar tareas por tí, que podrían ser repetitivas o incluso por aburridas que sean.

En una demostración de los riesgos de los ecosistemas conectados y autónomos de IA, un grupo de investigadores ha creado uno de los que afirman son los primeros gusanos generativos de IA, que pueden propagarse de un sistema a otro, potencialmente robando datos o desplegando malware en el proceso. «Básicamente significa que ahora tienes la capacidad de llevar a cabo o realizar un nuevo tipo de ciberataque que no se ha visto antes», dice Ben Nassi, investigador de Cornell Tech que está detrás de la investigación.

Nassi, junto con sus colegas investigadores Stav Cohen y Ron Bitton, crearon el gusano, bautizado Morris II, como referencia al gusano informático Morris que causó el caos en Internet en 1988. En un documento de investigación y un sitio web compartido en exclusiva con WIRED, los investigadores muestran cómo el gusano de IA puede atacar a un asistente de correo electrónico de IA generativa para robar datos de los correos electrónicos y enviar mensajes de spam, rompiendo en el proceso algunas protecciones de seguridad de ChatGPT y Gemini.

La investigación, que se llevó a cabo en entornos de prueba y no contra un asistente de correo electrónico disponible públicamente, se produce en un momento en que los grandes modelos de lenguaje (LLM) son cada vez más multimodales, capaces de generar imágenes y vídeo además de texto. Aunque todavía no se han detectado gusanos de IA generativa, varios investigadores afirman que constituyen un riesgo para la seguridad que debería preocupar a las nuevas empresas, los desarrolladores y las compañías tecnológicas.

Según los investigadores, el gusano de prueba se trata de un mensaje que provoca que el modelo de IA generativa emita, como respuesta, otro mensaje. En resumen, se le dice al sistema de IA que produzca un conjunto de instrucciones adicionales en sus respuestas.

En un vídeo de demostración de la investigación, puede verse cómo el sistema de correo electrónico reenvía un mensaje varias veces. Los investigadores también afirman que pueden extraer datos de los correos electrónicos. «Pueden ser nombres, números de teléfono, números de tarjetas de crédito, números de seguro social, cualquier cosa que se considere confidencial», afirma Nassi.

Este gusano Morris II empieza creando un prompt de «autorreplicación», que se utiliza contra estos modelos de IA para difundir contenido malicioso. El prompt de texto infecta al asistente de correo electrónico usando el LLM. A partir de aquí se consiguen datos que se envían de vuelta a GPT-4 o Gemini Pro para generar un mensaje de texto, algo que podemos comparar a hacer un jailbreak a la IA generativa, pudiendo robar dichos datos.

Además, una vez realizado este ataque con éxito, el asistente de correo electrónico reenvía a los demás usuarios prompts maliciosos que permiten infectar a nuevos clientes y extraer información adicional. Aunque este gusano Morris II solo se ha mostrado en la teoría y no en la práctica, Google y OpenAI son conscientes del peligro en cierta forma.

Aunque la investigación rompe algunas de las medidas de seguridad de ChatGPT y Gemini, los investigadores afirman que el trabajo es una advertencia sobre el «mal diseño de la arquitectura» en el ecosistema de la IA en general.

El portavoz de OpenAI afirma que, de hecho, han encontrado una forma de explotar vulnerabilidades mediante la inyección de código, pero tampoco están preocupados, ya que están trabajando en hacer sus sistemas resistentes a este tipo de ataques.

Rodrigo Mercado

Papá geek, gamer y jugón.

Los comentarios de Disqus están cargando....
Publicado por
Rodrigo Mercado