Artículos de investigación en IA seleccionados diariamente con traducciones
Si bien los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han logrado éxitos notables recientemente, son vulnerables a ciertos ataques de "jailbreaking" que resultan en la generación de contenido inapropiado o dañino. El red-teaming manual requiere encontrar indicaciones adversas que provoquen dicho jailbreaking, por ejemplo, añadiendo un sufijo a una instrucción dada, lo cual es ineficiente y consume mucho tiempo. Por otro lado, la generación automática de indicaciones adversas a menudo produce ataques semánticamente carentes de sentido que pueden ser detectados fácilmente por filtros basados en perplejidad, pueden requerir información de gradientes del TargetLLM, o no escalan bien debido a procesos de optimización discreta que consumen mucho tiempo en el espacio de tokens. En este artículo, presentamos un método novedoso que utiliza otro LLM, llamado AdvPrompter, para generar indicaciones adversas legibles por humanos en segundos, aproximadamente 800 veces más rápido que los enfoques basados en optimización existentes. Entrenamos el AdvPrompter utilizando un algoritmo novedoso que no requiere acceso a los gradientes del TargetLLM. Este proceso alterna entre dos pasos: (1) generar sufijos adversos de alta calidad optimizando las predicciones del AdvPrompter, y (2) ajuste fino de bajo rango del AdvPrompter con los sufijos adversos generados. El AdvPrompter entrenado genera sufijos que ocultan la instrucción de entrada sin cambiar su significado, de modo que el TargetLLM es engañado para dar una respuesta dañina. Los resultados experimentales en TargetLLMs de código abierto populares muestran resultados de vanguardia en el conjunto de datos AdvBench, que también se transfieren a APIs de LLMs de caja negra de código cerrado. Además, demostramos que al ajustar fino en un conjunto de datos sintéticos generado por AdvPrompter, los LLMs pueden volverse más robustos contra ataques de jailbreaking mientras mantienen su rendimiento, es decir, altas puntuaciones en MMLU.
Este artículo tiene como objetivo generar materiales para mallas 3D a partir de descripciones textuales. A diferencia de los métodos existentes que sintetizan mapas de textura, proponemos generar grafos de materiales procedimentales segmentados como representación de la apariencia, lo que permite renderizados de alta calidad y ofrece una flexibilidad significativa en la edición. En lugar de depender de grandes cantidades de datos emparejados, es decir, mallas 3D con grafos de materiales y descripciones textuales correspondientes, para entrenar un modelo generativo de grafos de materiales, proponemos aprovechar un modelo de difusión 2D preentrenado como puente para conectar el texto con los grafos de materiales. Específicamente, nuestro enfoque descompone una forma en un conjunto de segmentos y diseña un modelo de difusión controlado por segmentos para sintetizar imágenes 2D alineadas con las partes de la malla. Basándonos en las imágenes generadas, inicializamos los parámetros de los grafos de materiales y los ajustamos mediante un módulo de renderizado diferenciable para producir materiales que se ajusten a la descripción textual. Experimentos exhaustivos demuestran el rendimiento superior de nuestro marco en cuanto a fotorrealismo, resolución y capacidad de edición en comparación con los métodos existentes. Página del proyecto: https://zhanghe3z.github.io/MaPa/