ChatPaper.aiChatPaper

Infectando la Inteligencia Artificial Generativa con Virus.

Infecting Generative AI With Viruses

January 9, 2025
Autores: David Noever, Forrest McKee
cs.AI

Resumen

Este estudio demuestra un enfoque novedoso para probar los límites de seguridad de los Modelos de Lenguaje de Visión Amplia (VLM/LLM) utilizando el archivo de prueba EICAR incrustado en imágenes JPEG. Ejecutamos con éxito cuatro protocolos distintos en múltiples plataformas LLM, incluyendo OpenAI GPT-4o, Microsoft Copilot, Google Gemini 1.5 Pro y Anthropic Claude 3.5 Sonnet. Los experimentos validaron que un JPEG modificado que contiene la firma EICAR podría ser cargado, manipulado y potencialmente ejecutado dentro de espacios de trabajo virtuales LLM. Los hallazgos clave incluyen: 1) la capacidad consistente de enmascarar la cadena EICAR en los metadatos de la imagen sin detección, 2) la extracción exitosa del archivo de prueba utilizando manipulación basada en Python dentro de entornos LLM, y 3) la demostración de múltiples técnicas de ofuscación incluyendo codificación base64 e inversión de cadenas. Esta investigación extiende el marco "Reglas de Compromiso de Pruebas de Penetración" de Microsoft Research para evaluar los límites de seguridad de la IA generativa basada en la nube y LLM, centrándose particularmente en el manejo de archivos y capacidades de ejecución dentro de entornos contenerizados.
English
This study demonstrates a novel approach to testing the security boundaries of Vision-Large Language Model (VLM/ LLM) using the EICAR test file embedded within JPEG images. We successfully executed four distinct protocols across multiple LLM platforms, including OpenAI GPT-4o, Microsoft Copilot, Google Gemini 1.5 Pro, and Anthropic Claude 3.5 Sonnet. The experiments validated that a modified JPEG containing the EICAR signature could be uploaded, manipulated, and potentially executed within LLM virtual workspaces. Key findings include: 1) consistent ability to mask the EICAR string in image metadata without detection, 2) successful extraction of the test file using Python-based manipulation within LLM environments, and 3) demonstration of multiple obfuscation techniques including base64 encoding and string reversal. This research extends Microsoft Research's "Penetration Testing Rules of Engagement" framework to evaluate cloud-based generative AI and LLM security boundaries, particularly focusing on file handling and execution capabilities within containerized environments.

Summary

AI-Generated Summary

PDF139January 13, 2025