Artículos de investigación en IA seleccionados diariamente con traducciones
Presentamos Hala, una familia de modelos de instrucción y traducción centrados en el árabe, construidos con nuestra canalización de traducción y ajuste. Primero comprimimos un potente profesor ARleftrightarrowEN a FP8 (obteniendo un rendimiento sim2veces mayor sin pérdida de calidad) y lo utilizamos para crear supervisión bilingüe de alta fidelidad. Luego, un modelo de lenguaje ligero LFM2-1.2B se ajusta sobre estos datos y se utiliza para traducir conjuntos de instrucciones en inglés de alta calidad al árabe, produciendo un corpus a escala de millones adaptado para el seguimiento de instrucciones. Entrenamos modelos Hala con 350M, 700M, 1.2B y 9B parámetros, y aplicamos fusión slerp para equilibrar la especialización en árabe con las fortalezas del modelo base. En benchmarks centrados en el árabe, Hala logra resultados de vanguardia tanto en la categoría "nano" (leq2B) como en la "pequeña" (7-9B), superando a sus bases. Publicamos modelos, datos, evaluación y recetas para acelerar la investigación en PLN para el árabe.
Presentamos SAIL-VL2, un modelo base de visión-lenguaje (LVM) de código abierto para la comprensión y razonamiento multimodal integral. Como sucesor de SAIL-VL, SAIL-VL2 logra un rendimiento de vanguardia en escalas de 2B y 8B parámetros en diversos benchmarks de imágenes y videos, demostrando capacidades sólidas que van desde la percepción detallada hasta el razonamiento complejo. Tres innovaciones clave impulsan su efectividad. Primero, una canalización de curación de datos a gran escala con estrategias de puntuación y filtrado mejora tanto la calidad como la distribución en datos de subtitulado, OCR, preguntas y respuestas, y videos, optimizando la eficiencia del entrenamiento. Segundo, un marco de entrenamiento progresivo comienza con un potente codificador visual preentrenado (SAIL-ViT), avanza mediante preentrenamiento multimodal y culmina en un paradigma híbrido SFT-RL de fusión de pensamiento que fortalece sistemáticamente las capacidades del modelo. Tercero, avances arquitectónicos que van más allá de los LLM densos hacia diseños eficientes de Mixture-of-Experts (MoE) dispersos. Con estas contribuciones, SAIL-VL2 demuestra un rendimiento competitivo en 106 conjuntos de datos y logra resultados de vanguardia en benchmarks desafiantes de razonamiento como MMMU y MathVista. Además, en el ranking de OpenCompass, SAIL-VL2-2B ocupa el primer lugar entre los modelos de código abierto oficialmente lanzados con menos de 4B parámetros, sirviendo como una base eficiente y extensible para la comunidad de código abierto multimodal.
La visión omnidireccional, que utiliza una visión de 360 grados para comprender el entorno, se ha vuelto cada vez más crítica en dominios como la robótica, la inspección industrial y el monitoreo ambiental. En comparación con la visión tradicional de tipo pinhole, la visión omnidireccional proporciona una conciencia ambiental holística, mejorando significativamente la completitud de la percepción de escenas y la confiabilidad en la toma de decisiones. Sin embargo, la investigación fundamental en esta área históricamente ha ido a la zaga de la visión tradicional de tipo pinhole. Esta charla presenta una tendencia emergente en la era de la IA encarnada: el rápido desarrollo de la visión omnidireccional, impulsado por la creciente demanda industrial y el interés académico. Destacamos avances recientes en generación omnidireccional, percepción omnidireccional, comprensión omnidireccional y conjuntos de datos relacionados. Basándonos en perspectivas tanto de la academia como de la industria, proponemos una arquitectura de sistema panorámico ideal en la era de la IA encarnada, PANORAMA, que consta de cuatro subsistemas clave. Además, ofrecemos opiniones profundas relacionadas con tendencias emergentes e impactos intercomunitarios en la intersección de la visión panorámica y la IA encarnada, junto con la hoja de ruta futura y los desafíos abiertos. Esta visión general sintetiza los avances más recientes y esboza los desafíos y oportunidades para futuras investigaciones en la construcción de sistemas de IA omnidireccionales robustos y de propósito general en la era de la IA encarnada.
Los exámenes son una prueba fundamental de inteligencia a nivel experto y requieren una comprensión, razonamiento y generación integrados. Los benchmarks existentes de estilo examen se centran principalmente en tareas de comprensión y razonamiento, mientras que los benchmarks actuales de generación enfatizan la ilustración de conocimiento del mundo y conceptos visuales, descuidando la evaluación de exámenes de dibujo rigurosos. Presentamos GenExam, el primer benchmark para exámenes multidisciplinarios de texto a imagen, que incluye 1,000 muestras en 10 materias con indicaciones de estilo examen organizadas bajo una taxonomía de cuatro niveles. Cada problema está equipado con imágenes de referencia y puntos de puntuación detallados para permitir una evaluación precisa de la corrección semántica y la plausibilidad visual. Los experimentos muestran que incluso modelos de última generación como GPT-Image-1 y Gemini-2.5-Flash-Image obtienen menos del 15% en puntuaciones estrictas, y la mayoría de los modelos alcanzan casi un 0%, lo que sugiere el gran desafío que representa nuestro benchmark. Al enmarcar la generación de imágenes como un examen, GenExam ofrece una evaluación rigurosa de la capacidad de los modelos para integrar conocimiento, razonamiento y generación, proporcionando insights sobre el camino hacia la AGI general.
Si bien los Modelos de Lenguaje de Código (CLMs, por sus siglas en inglés) han demostrado un rendimiento superior en tareas de ingeniería de software, como la generación y resumen de código, estudios empíricos recientes revelan una vulnerabilidad crítica en materia de privacidad: estos modelos exhiben una memorización no intencionada de datos sensibles de entrenamiento, lo que permite la reproducción textual de información confidencial cuando se les solicita específicamente. Para abordar este problema, se han propuesto varios enfoques, incluida la desduplicación de datos de entrenamiento y la aplicación de privacidad diferencial. Sin embargo, estos métodos requieren un reentrenamiento completo de los CLMs ya implementados, lo que conlleva costos computacionales significativos. En este artículo, buscamos responder a la siguiente pregunta de investigación: ¿Se puede eliminar de manera efectiva y eficiente la información sensible memorizada por los CLMs? Realizamos una investigación pionera sobre la eliminación de memorización sensible en CLMs mediante el desaprendizaje automático (machine unlearning), un método de modificación posterior que elimina información específica de modelos ya entrenados sin necesidad de un reentrenamiento completo. En concreto, primero cuantificamos los riesgos de memorización de datos sensibles dentro de los conjuntos de datos de entrenamiento de CLMs y seleccionamos un conjunto de datos de alto riesgo con 50,000 muestras sensibles memorizadas como objetivos de desaprendizaje. Estudiamos dos enfoques ampliamente utilizados basados en ascenso de gradiente: el método básico y el método basado en restricciones, e introducimos CodeEraser, una variante avanzada que elimina selectivamente segmentos sensibles memorizados en el código mientras preserva la integridad estructural y la corrección funcional del código circundante. Experimentos exhaustivos en tres familias de CLMs, es decir, CodeParrot, CodeGen-Mono y Qwen2.5-Coder, validan la efectividad y eficiencia de CodeEraser para eliminar la memorización sensible objetivo sin comprometer la utilidad del modelo.
Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han logrado avances notables en razonamiento matemático, pero aún enfrentan dificultades en tareas de alta precisión, como el cálculo numérico y la manipulación simbólica formal. La integración de herramientas externas ha surgido como un enfoque prometedor para cerrar esta brecha. A pesar de los recientes avances, los métodos existentes enfrentan tres desafíos clave: la construcción de datos de razonamiento integrados con herramientas, la optimización de grano fino y la mejora de la inferencia. Para superar estas limitaciones, proponemos THOR (Optimización Jerárquica Integrada con Herramientas mediante RL). Primero, presentamos TIRGen, una canalización basada en actores-críticos multiagente para construir conjuntos de datos de alta calidad de trayectorias de razonamiento integradas con herramientas, alineadas con la política y que generalizan bien en diversos modelos. Segundo, para realizar una optimización jerárquica de grano fino, introducimos una estrategia de RL que optimiza conjuntamente tanto la resolución de problemas a nivel de trayectoria como la generación de código a nivel de paso. Esto se basa en nuestra idea clave de que el éxito de una llamada a una herramienta intermedia es un fuerte predictor de la corrección de la respuesta final. Finalmente, THOR incorpora un mecanismo de autocorrección que aprovecha la retroalimentación inmediata de las herramientas para revisar dinámicamente las trayectorias de razonamiento erróneas durante la inferencia. Nuestro enfoque demuestra una fuerte generalización en diversos modelos, funcionando eficazmente tanto en modelos de razonamiento como en aquellos que no lo son. Además, logra un rendimiento de vanguardia en modelos de escala similar en múltiples benchmarks matemáticos, al tiempo que ofrece mejoras consistentes en benchmarks de código. Nuestro código estará disponible públicamente en https://github.com/JingMog/THOR.
Los avances recientes en agentes basados en Modelos de Lenguaje de Gran Escala (LLM, por sus siglas en inglés) han demostrado capacidades impresionantes en múltiples dominios, ejemplificados por sistemas de investigación profunda que muestran un rendimiento superior en tareas complejas de búsqueda y síntesis de información. Aunque los agentes de investigación profunda de propósito general han mostrado capacidades notables, enfrentan dificultades significativas en los desafíos del dominio médico, como lo evidencia el rendimiento limitado de los sistemas propietarios líderes en benchmarks médicos complejos. Las limitaciones clave son: (1) el modelo carece de conocimiento médico denso suficiente para el razonamiento clínico, y (2) el marco está restringido por la ausencia de herramientas de recuperación especializadas adaptadas a contextos médicos. Presentamos un agente de investigación médica profunda que aborda estos desafíos a través de dos innovaciones principales. Primero, desarrollamos un marco novedoso de síntesis de datos utilizando grafos de conocimiento médico, extrayendo las cadenas más largas de subgrafos alrededor de entidades médicas raras para generar pares de preguntas-respuestas complejas de múltiples saltos. Segundo, integramos un motor de recuperación médico privado personalizado junto con herramientas de propósito general, permitiendo una síntesis precisa de información médica. Nuestro enfoque genera más de 2100 trayectorias diversas en 12 especialidades médicas, con un promedio de 4.2 interacciones con herramientas por trayectoria. Mediante un paradigma de entrenamiento en dos etapas que combina ajuste fino supervisado y aprendizaje por refuerzo en línea con recompensas compuestas, nuestro modelo MedResearcher-R1-32B demuestra un rendimiento excepcional, estableciendo nuevos resultados de vanguardia en benchmarks médicos mientras mantiene un rendimiento competitivo en tareas generales de investigación profunda. Nuestro trabajo demuestra que innovaciones estratégicas específicas del dominio en arquitectura, diseño de herramientas y construcción de datos de entrenamiento pueden permitir que modelos de código abierto más pequeños superen a sistemas propietarios mucho más grandes en dominios especializados.
Presentamos Wan-Animate, un marco unificado para la animación y sustitución de personajes. Dada una imagen de un personaje y un video de referencia, Wan-Animate puede animar al personaje replicando con precisión las expresiones y movimientos del personaje en el video para generar videos de alta fidelidad. Alternativamente, puede integrar al personaje animado en el video de referencia para reemplazar al personaje original, replicando la iluminación y el tono de color de la escena para lograr una integración ambiental perfecta. Wan-Animate está construido sobre el modelo Wan. Para adaptarlo a tareas de animación de personajes, empleamos un paradigma de entrada modificado para diferenciar entre condiciones de referencia y regiones para generación. Este diseño unifica múltiples tareas en una representación simbólica común. Utilizamos señales de esqueleto alineadas espacialmente para replicar el movimiento corporal y características faciales implícitas extraídas de imágenes fuente para recrear expresiones, permitiendo la generación de videos de personajes con alta controlabilidad y expresividad. Además, para mejorar la integración ambiental durante la sustitución de personajes, desarrollamos un LoRA de Reiluminación auxiliar. Este módulo preserva la consistencia de la apariencia del personaje mientras aplica la iluminación ambiental y el tono de color adecuados. Los resultados experimentales demuestran que Wan-Animate alcanza un rendimiento de vanguardia. Estamos comprometidos con la liberación del código fuente y los pesos del modelo.
Este artículo revisa el desafío MARS2 2025 sobre Razonamiento Multimodal. Nuestro objetivo es reunir diferentes enfoques en aprendizaje multimodal y modelos de lenguaje grandes (LLMs) a través de un amplio benchmark. Esperamos que esto permita a los investigadores seguir el estado del arte en esta área tan dinámica. Mientras tanto, un número creciente de bancos de pruebas ha impulsado la evolución de los modelos de lenguaje grandes de propósito general. Por lo tanto, este año MARS2 se centra en escenarios del mundo real y especializados para ampliar las aplicaciones de razonamiento multimodal de los MLLMs. Nuestro equipo organizador lanzó dos conjuntos de datos personalizados, Lens y AdsQA, como conjuntos de prueba, que apoyan el razonamiento general en 12 escenarios cotidianos y el razonamiento específico de dominio en videos publicitarios, respectivamente. Evaluamos más de 40 modelos de referencia que incluyen tanto MLLMs generalistas como modelos específicos de tareas, y abrimos tres categorías de competencia: Anclaje Visual en Escenarios del Mundo Real (VG-RS), Respuesta a Preguntas Visuales con Conciencia Espacial (VQA-SA) y Razonamiento Visual en Videos Publicitarios Creativos (VR-Ads). Finalmente, 76 equipos de reconocidas instituciones académicas e industriales se han registrado y más de 40 envíos válidos (de más de 1200) han sido incluidos en nuestras listas de clasificación. Nuestros conjuntos de datos, códigos (más de 40 modelos de referencia y más de 15 métodos de participantes) y clasificaciones están disponibles públicamente en el sitio web del taller MARS2 y en nuestra página de organización en GitHub https://github.com/mars2workshop/, donde se proporcionarán continuamente nuestras actualizaciones y anuncios de próximos eventos.
Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) a menudo enfrentan dificultades con la fidelidad contextual, produciendo respuestas inconsistentes al responder preguntas basadas en información proporcionada. Los enfoques existentes dependen de un ajuste supervisado costoso para generar evidencia posterior a la respuesta o entrenan modelos para realizar búsquedas en la web sin necesariamente mejorar la utilización del contexto dado. Proponemos CARE, un novedoso marco de razonamiento aumentado con recuperación nativa que enseña a los LLMs a integrar explícitamente evidencia contextual dentro de su proceso de razonamiento utilizando sus propias capacidades de recuperación. Nuestro método requiere datos de evidencia etiquetados limitados, mientras mejora significativamente tanto la precisión de la recuperación como el rendimiento en la generación de respuestas mediante tokens contextuales recuperados estratégicamente en la cadena de razonamiento. Experimentos exhaustivos en múltiples puntos de referencia de preguntas y respuestas (QA) del mundo real y contrafactuales demuestran que nuestro enfoque supera sustancialmente el ajuste supervisado, los métodos tradicionales de generación aumentada con recuperación y las soluciones de recuperación externa. Este trabajo representa un avance fundamental para hacer que los LLMs sean más precisos, confiables y eficientes en tareas intensivas en conocimiento.
Proponemos LLM-Interleaved (LLM-I), un marco flexible y dinámico que reformula la generación intercalada de imágenes y texto como un problema de uso de herramientas. LLM-I está diseñado para superar el cuello de botella de "una sola herramienta" de los modelos unificados actuales, que se limitan a la creación de imágenes sintéticas y tienen dificultades con tareas que requieren fundamentación factual o precisión programática. Nuestro marco permite a un agente central LLM o MLLM orquestar inteligentemente un conjunto diverso de herramientas visuales especializadas, incluyendo búsqueda de imágenes en línea, generación basada en difusión, ejecución de código y edición de imágenes. El agente es entrenado para seleccionar y aplicar estas herramientas de manera competente mediante un marco de Aprendizaje por Refuerzo (RL) que incluye un sistema de recompensas híbrido que combina lógica basada en reglas con juicios de evaluadores LLM y MLLM. Entrenado en un nuevo y diverso conjunto de datos utilizando cuatro arquitecturas de modelos diferentes, LLM-I demuestra un rendimiento de vanguardia, superando ampliamente a los métodos existentes en cuatro benchmarks. También introducimos una novedosa estrategia de escalado en tiempo de prueba que proporciona mejoras adicionales en el rendimiento. Página del proyecto: https://github.com/ByteDance-BandAI/LLM-I.
El aprendizaje automático generativo ofrece nuevas oportunidades para comprender mejor la dinámica compleja del sistema terrestre. Los métodos recientes basados en difusión abordan los sesgos espectrales y mejoran la calibración de conjuntos en la predicción meteorológica en comparación con los métodos determinísticos, aunque hasta ahora han demostrado ser difíciles de escalar de manera estable a altas resoluciones. Presentamos AERIS, un transformador de difusión Swin a nivel de píxel con parámetros de 1.3 a 80B para abordar esta brecha, y SWiPe, una técnica generalizable que combina el paralelismo de ventanas con el paralelismo de secuencias y tuberías para dividir transformadores basados en ventanas sin costos adicionales de comunicación o aumento del tamaño global del lote. En Aurora (10,080 nodos), AERIS mantiene 10.21 ExaFLOPS (precisión mixta) y un rendimiento máximo de 11.21 ExaFLOPS con un tamaño de parche de 1x1 en el conjunto de datos ERA5 de 0.25{\deg}, logrando una eficiencia de escalado débil del 95.5% y una eficiencia de escalado fuerte del 81.6%. AERIS supera al IFS ENS y se mantiene estable en escalas estacionales hasta 90 días, destacando el potencial de los modelos de difusión con miles de millones de parámetros para la predicción meteorológica y climática.
Los modelos generativos de imágenes recientes suelen capturar la distribución de imágenes en un espacio latente preconstruido, dependiendo de un tokenizador de imágenes congelado. Sin embargo, existe una discrepancia significativa entre la distribución de reconstrucción y la distribución de generación, donde los tokenizadores actuales solo priorizan la tarea de reconstrucción que ocurre antes del entrenamiento generativo, sin considerar los errores de generación durante el muestreo. En este artículo, analizamos exhaustivamente la razón de esta discrepancia en un espacio latente discreto y, a partir de ello, proponemos un novedoso esquema de entrenamiento de tokenizadores que incluye tanto el entrenamiento principal como el posentrenamiento, centrándose en mejorar la construcción del espacio latente y la decodificación, respectivamente. Durante el entrenamiento principal, se propone una estrategia de perturbación latente para simular ruidos de muestreo, es decir, los tokens inesperados generados en la inferencia generativa. Específicamente, proponemos un esquema de entrenamiento de tokenizadores plug-and-play, que mejora significativamente la robustez del tokenizador, aumentando así la calidad de generación y la velocidad de convergencia, y una nueva métrica de evaluación de tokenizadores, es decir, pFID, que correlaciona exitosamente el rendimiento del tokenizador con la calidad de generación. Durante el posentrenamiento, optimizamos aún más el decodificador del tokenizador en relación con un modelo generativo bien entrenado para mitigar la diferencia de distribución entre los tokens generados y los reconstruidos. Con un generador sim400M, un tokenizador discreto entrenado con nuestro esquema de entrenamiento principal alcanza un notable 1.60 gFID y obtiene un 1.36 gFID adicional con el posentrenamiento. Se realizan más experimentos para validar ampliamente la efectividad de nuestra estrategia de posentrenamiento en tokenizadores discretos y continuos disponibles, junto con generadores basados en autoregresión y difusión.
Presentamos SteeringControl, un punto de referencia para evaluar métodos de direccionamiento de representaciones en objetivos centrales de alineación—sesgo, generación dañina y alucinación—y sus efectos en comportamientos secundarios como la adulación y la moralidad de sentido común. Si bien trabajos previos sobre alineación suelen destacar la veracidad o la capacidad de razonamiento para demostrar los efectos secundarios del direccionamiento de representaciones, encontramos que existen muchas compensaciones no exploradas que aún no se comprenden de manera sistemática. Recopilamos un conjunto de datos de comportamientos primarios y secundarios relevantes para la seguridad, con el fin de evaluar la efectividad del direccionamiento y el entrelazamiento conductual centrado en cinco métodos populares de direccionamiento. Para lograrlo, diseñamos un marco de direccionamiento modular basado en componentes únicos que sirven como bloques fundamentales de muchos métodos existentes. Nuestros resultados en Qwen-2.5-7B y Llama-3.1-8B muestran que un rendimiento sólido en el direccionamiento depende de la combinación específica del método de direccionamiento, el modelo y el comportamiento objetivo, y que una combinación deficiente de estos tres elementos también puede resultar en un grave entrelazamiento conceptual. Publicamos nuestro código aquí: https://github.com/wang-research-lab/SteeringControl.git.
Los circuitos cuánticos variacionales (VQCs) son fundamentales para el aprendizaje automático cuántico, mientras que los avances recientes en las redes de Kolmogorov-Arnold (KANs) destacan el poder de las funciones de activación aprendibles. Unificamos estas direcciones al introducir funciones de activación variacionales cuánticas (QVAFs), implementadas mediante circuitos de recarga de datos de un solo qubit llamados DatA Re-Uploading ActivatioNs (DARUANs). Demostramos que DARUAN con pesos entrenables en el preprocesamiento de datos posee un espectro de frecuencia que crece exponencialmente con las repeticiones de datos, permitiendo una reducción exponencial en el tamaño de los parámetros en comparación con las activaciones basadas en Fourier sin pérdida de expresividad. La incorporación de DARUAN en KANs da lugar a KANs inspirados en la cuántica (QKANs), que conservan la interpretabilidad de las KANs mientras mejoran su eficiencia de parámetros, expresividad y generalización. Además, introducimos dos técnicas novedosas para mejorar la escalabilidad, viabilidad y eficiencia computacional, como la extensión de capas y las QKANs híbridas (HQKANs) como reemplazos directos de perceptrones multicapa (MLPs) en redes de avance para modelos a gran escala. Proporcionamos análisis teórico y experimentos extensos en regresión de funciones, clasificación de imágenes y modelado generativo de lenguaje autorregresivo, demostrando la eficiencia y escalabilidad de las QKANs. Los DARUANs y QKANs ofrecen una dirección prometedora para avanzar en el aprendizaje automático cuántico tanto en hardware cuántico de escala intermedia ruidosa (NISQ) como en simuladores cuánticos clásicos.
Proponemos un pipeline para extraer y reconstruir activos 3D dinámicos de humo a partir de un único video capturado en entornos naturales, y además integrar simulación interactiva para el diseño y edición de humo. Los avances recientes en visión 3D han mejorado significativamente la reconstrucción y renderización de dinámicas de fluidos, permitiendo una síntesis de vistas realista y temporalmente consistente. Sin embargo, las reconstrucciones actuales de fluidos dependen en gran medida de entornos de laboratorio cuidadosamente controlados, mientras que los videos del mundo real capturados en entornos naturales han sido poco explorados. Identificamos tres desafíos clave en la reconstrucción de humo en videos del mundo real y diseñamos técnicas específicas, que incluyen la extracción de humo con eliminación de fondo, la inicialización de partículas de humo y poses de cámara, y la inferencia de videos multivista. Nuestro método no solo supera a los métodos anteriores de reconstrucción y generación con reconstrucciones de humo de alta calidad (+2.22 PSNR promedio en videos naturales), sino que también permite una edición diversa y realista de dinámicas de fluidos mediante la simulación de nuestros activos de humo. Proporcionamos nuestros modelos, datos y activos 4D de humo en [https://autumnyq.github.io/WildSmoke](https://autumnyq.github.io/WildSmoke).
A medida que los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) se integran en sistemas multiagente, surgen nuevos riesgos de privacidad que van más allá de la memorización, la inferencia directa o las evaluaciones de un solo turno. En particular, respuestas aparentemente inocuas, cuando se componen a lo largo de interacciones, pueden permitir de manera acumulativa que los adversarios recuperen información sensible, un fenómeno que denominamos fuga de privacidad composicional. Presentamos el primer estudio sistemático de este tipo de fugas de privacidad composicional y de posibles métodos de mitigación en sistemas multiagente basados en LLMs. Primero, desarrollamos un marco que modela cómo el conocimiento auxiliar y las interacciones entre agentes amplifican conjuntamente los riesgos de privacidad, incluso cuando cada respuesta es benigna de manera aislada. Luego, para mitigar esto, proponemos y evaluamos dos estrategias de defensa: (1) la defensa basada en la Teoría de la Mente (ToM, por sus siglas en inglés), donde los agentes defensores infieren la intención de un interrogador anticipando cómo sus salidas pueden ser explotadas por adversarios, y (2) la defensa de Consenso Colaborativo (CoDef, por sus siglas en inglés), donde los agentes respondedores colaboran con pares que votan en función de un estado agregado compartido para restringir la difusión de información sensible. Es crucial destacar que equilibramos nuestra evaluación entre composiciones que exponen información sensible y composiciones que producen inferencias benignas. Nuestros experimentos cuantifican cómo estas estrategias de defensa difieren en equilibrar la relación entre privacidad y utilidad. Encontramos que, aunque la cadena de pensamiento por sí sola ofrece una protección limitada contra la fuga (~39% de tasa de bloqueo de información sensible), nuestra defensa ToM mejora sustancialmente el bloqueo de consultas sensibles (hasta un 97%), pero puede reducir el éxito en tareas benignas. CoDef logra el mejor equilibrio, obteniendo el Resultado Equilibrado más alto (79,8%), destacando el beneficio de combinar el razonamiento explícito con la colaboración entre defensores. En conjunto, nuestros resultados exponen una nueva clase de riesgos en implementaciones colaborativas de LLMs y proporcionan ideas prácticas para diseñar salvaguardias contra fugas de privacidad composicionales y basadas en el contexto.
La asesoría financiera personalizada requiere considerar los objetivos del usuario, restricciones, tolerancia al riesgo y jurisdicción. Trabajos previos con LLM se han centrado en sistemas de apoyo para inversionistas y planificadores financieros. Simultáneamente, numerosos estudios recientes examinan tareas más amplias de finanzas personales, como presupuestos, manejo de deudas, jubilación y planificación patrimonial, a través de pipelines agenticos que incurren en altos costos de mantenimiento, generando menos del 25% de los rendimientos financieros esperados. En este estudio, presentamos un marco novedoso y reproducible que integra contexto financiero relevante con estudios de finanzas conductuales para construir datos de supervisión para asesores de extremo a extremo. Utilizando este marco, creamos un conjunto de datos de razonamiento de 19k muestras y realizamos un ajuste fino exhaustivo del modelo Qwen-3-8B en dicho conjunto. A través de una división de prueba reservada y un estudio ciego con un jurado de LLM, demostramos que, mediante una cuidadosa curación de datos e integración conductual, nuestro modelo de 8B logra un rendimiento comparable a líneas base significativamente más grandes (14-32B parámetros) en métricas de precisión factual, fluidez y personalización, mientras incurre en costos un 80% menores que sus contrapartes más grandes.
Este estudio presenta una comparación sistemática entre redes neuronales híbridas cuántico-clásicas y modelos puramente clásicos en tres conjuntos de datos de referencia (MNIST, CIFAR100 y STL10) para evaluar su rendimiento, eficiencia y robustez. Los modelos híbridos integran circuitos cuánticos parametrizados con arquitecturas clásicas de aprendizaje profundo, mientras que los modelos clásicos utilizan redes neuronales convolucionales (CNN) convencionales. Los experimentos se realizaron durante 50 épocas de entrenamiento para cada conjunto de datos, evaluando la precisión en validación, la precisión en prueba, el tiempo de entrenamiento, el uso de recursos computacionales y la robustez ante adversarios (probada con perturbaciones de épsilon=0.1). Los hallazgos clave demuestran que los modelos híbridos superan consistentemente a los modelos clásicos en precisión final, alcanzando {99.38\% (MNIST), 41.69\% (CIFAR100) y 74.05\% (STL10) en precisión de validación, en comparación con los valores de referencia clásicos de 98.21\%, 32.25\% y 63.76\%, respectivamente. Notablemente, la ventaja de los modelos híbridos escala con la complejidad del conjunto de datos, mostrando las ganancias más significativas en CIFAR100 (+9.44\%) y STL10 (+10.29\%). Los modelos híbridos también entrenan entre 5 y 12 veces más rápido (por ejemplo, 21.23s vs. 108.44s por época en MNIST) y utilizan entre un 6\% y un 32\% menos de parámetros} mientras mantienen una generalización superior a datos de prueba no vistos. Las pruebas de robustez ante adversarios revelan que los modelos híbridos son significativamente más resistentes en conjuntos de datos más simples (por ejemplo, 45.27\% de precisión robusta en MNIST frente a 10.80\% para los clásicos), pero muestran una fragilidad comparable en conjuntos de datos complejos como CIFAR100 (sim1\% de robustez para ambos). Los análisis de eficiencia de recursos indican que los modelos híbridos consumen menos memoria (4--5GB frente a 5--6GB para los clásicos) y una menor utilización de CPU (9.5\% frente a 23.2\% en promedio). Estos resultados sugieren que las arquitecturas híbridas cuántico-clásicas ofrecen ventajas convincentes en precisión, eficiencia de entrenamiento y escalabilidad de parámetros, particularmente para tareas de visión complejas.