Articles de recherche en IA sélectionnés quotidiennement avec traductions
Bien que les grands modèles de langage (LLMs) aient récemment obtenu des succès remarquables, ils restent vulnérables à certaines attaques de jailbreaking qui entraînent la génération de contenus inappropriés ou nuisibles. Le red-teaming manuel nécessite de trouver des invites adverses provoquant un tel jailbreaking, par exemple en ajoutant un suffixe à une instruction donnée, ce qui est inefficace et chronophage. D'un autre côté, la génération automatique d'invites adverses aboutit souvent à des attaques sémantiquement dénuées de sens, facilement détectables par des filtres basés sur la perplexité, peut nécessiter des informations sur le gradient du TargetLLM, ou ne s'adapte pas bien en raison de processus d'optimisation discrets longs sur l'espace des tokens. Dans cet article, nous présentons une nouvelle méthode utilisant un autre LLM, appelé AdvPrompter, pour générer des invites adverses lisibles par l'homme en quelques secondes, soit environ 800 fois plus rapide que les approches existantes basées sur l'optimisation. Nous entraînons l'AdvPrompter à l'aide d'un nouvel algorithme qui ne nécessite pas d'accès aux gradients du TargetLLM. Ce processus alterne entre deux étapes : (1) la génération de suffixes adverses cibles de haute qualité en optimisant les prédictions de l'AdvPrompter, et (2) le fine-tuning à faible rang de l'AdvPrompter avec les suffixes adverses générés. L'AdvPrompter entraîné génère des suffixes qui masquent l'instruction d'entrée sans en altérer le sens, de sorte que le TargetLLM est incité à fournir une réponse nuisible. Les résultats expérimentaux sur des TargetLLMs open source populaires montrent des performances de pointe sur le dataset AdvBench, qui se transfèrent également aux API de LLMs propriétaires en boîte noire. De plus, nous démontrons qu'en effectuant un fine-tuning sur un ensemble de données synthétiques généré par AdvPrompter, les LLMs peuvent être rendus plus robustes contre les attaques de jailbreaking tout en maintenant leurs performances, c'est-à-dire des scores MMLU élevés.
Cet article vise à générer des matériaux pour des maillages 3D à partir de descriptions textuelles. Contrairement aux méthodes existantes qui synthétisent des cartes de textures, nous proposons de générer des graphes de matériaux procéduraux segment par segment comme représentation de l'apparence, ce qui permet un rendu de haute qualité et offre une flexibilité substantielle dans l'édition. Au lieu de s'appuyer sur des données appariées étendues, c'est-à-dire des maillages 3D avec des graphes de matériaux et des descriptions textuelles correspondantes, pour entraîner un modèle génératif de graphes de matériaux, nous proposons d'exploiter un modèle de diffusion 2D pré-entraîné comme pont pour connecter le texte et les graphes de matériaux. Plus précisément, notre approche décompose une forme en un ensemble de segments et conçoit un modèle de diffusion contrôlé par segment pour synthétiser des images 2D alignées avec les parties du maillage. Sur la base des images générées, nous initialisons les paramètres des graphes de matériaux et les affinons via le module de rendu différentiable pour produire des matériaux conformes à la description textuelle. Des expériences approfondies démontrent la performance supérieure de notre framework en termes de photoréalisme, de résolution et de capacité d'édition par rapport aux méthodes existantes. Page du projet : https://zhanghe3z.github.io/MaPa/