Puede hackear los contenidos de la IA Generativa y los correos electrónicos de sus usuarios
Recreación artística de un gusano IA en el interior de un sistema de GAI. / GENERADOR DE IMÁGENES DE COPILOT PARA T21/PRENSA IBÉRICA.
Redacción T21
Madrid 06 MAR 2024 11:12
El primer gusano de Inteligencia Artificial es capaz de envenenar los contenidos que facilita la IA Generativa y de replicar falsedades indetectables, así como de robar datos y de contaminar correos electrónicos. Podría estar operativo en dos años si no se toman medidas.
La inteligencia artificial generativa (GAI, por sus siglas en inglés) es una rama de la IA que se dedica a crear contenidos originales, como textos, imágenes, sonidos o vídeos, a partir de datos de entrada.
Algunos ejemplos de sistemas GAI son OpenAI's ChatGPT y Google's Gemini, que pueden generar respuestas automáticas a mensajes de texto o correos electrónicos, entre otras tareas.
Sin embargo, estos sistemas también son vulnerables a ataques informáticos que podrían comprometer su funcionamiento y la privacidad de los usuarios.
Gusano IA
Un grupo de investigadores de Cornell Tech ha demostrado la existencia de uno de los primeros gusanos de inteligencia artificial, que puede propagarse de un sistema GAI a otro, robando datos o enviando correos basura en el proceso.
Los gusanos son programas maliciosos autónomos que pueden autorreplicarse y propagarse de forma independiente en cuanto penetran en el sistema. Se diferencian de los virus en que no necesitan activarse mediante la interacción con su víctima.
El gusano IA, llamado Morris II, se aprovecha de la capacidad de los sistemas GAI de generar contenidos convincentes para engañar a los usuarios y a otros agentes de IA.
Por ejemplo, Morris II puede enviar un correo electrónico a un usuario que parece provenir de un amigo o de un servicio legítimo, pero que contiene un enlace malicioso que infecta al sistema GAI del usuario.
A partir de ahí, el gusano puede acceder a los datos personales del usuario, como su nombre, dirección o tarjeta de crédito, y enviarlos a un servidor remoto. Además, el gusano puede replicarse y enviar más correos falsos a otros contactos del usuario, o a otros sistemas GAI que encuentre en la red.
Comprobado
Los investigadores han probado el gusano en un entorno de prueba controlado, utilizando dos sistemas GAI basados en ChatGPT y Gemini.
El equipo diseñó un sistema de correo electrónico experimental utilizando tecnologías de IA generativa y un modelo de IA de código abierto llamado LLaVA.
Luego crearon un mensaje que se reproducía automáticamente y se aseguraron de que estuviera integrado en la base de datos utilizada por la IA. De esta manera, cuando se enviaba una solicitud, el sistema generaba una respuesta basada en los datos “envenenados”.
Vector de infección
Cada respuesta podría servir como un nuevo vector de infección, propagándose a otros sistemas de IA cuando se envía a otra persona a través del sistema de mensajería. Por lo tanto, puede infectar fácilmente nuevos sistemas, creando un ciclo de autopropagación.
Además del aviso puramente textual, el gusano también puede incrustarse como un aviso oculto en una imagen para infectar un sistema de correo electrónico.
Los resultados muestran que el gusano es capaz de infectar los citados sistemas GAI con una tasa de éxito del 100%, y de robar datos confidenciales como contraseñas, números de teléfono o direcciones de correo electrónico. El gusano también puede adaptar su contenido al contexto y al idioma del sistema GAI objetivo, lo que dificulta su detección.
Se puede prevenir
Los autores del estudio advierten de que este tipo de ataques podrían empezar a producirse en dos o tres años y tener graves consecuencias para la seguridad y la privacidad de los usuarios de sistemas GAI, así como para la confianza en la tecnología de inteligencia artificial.
"Básicamente significa que ahora tienes la capacidad de llevar a cabo un nuevo tipo de ciberataque que no se había visto antes", dice Ben Nassi, uno de los autores de la investigación, citado por Wired.
Los autores de este trabajo aseguran que hay formas que las personas que crean sistemas de IA generativa pueden usar para defenderse contra posibles gusanos, incluido usando de enfoques de seguridad tradicionales
Por ello, recomiendan desarrollar medidas de protección y prevención, como sistemas de autenticación, cifrado, detección de anomalías o educación de los usuarios.
_________________
Referencia
ComPromptMized: Unleashing Zero-click Worms that Target GenAI-Powered Applications. Stav Cohen et al.
___________
Fuente: