Artigos de pesquisa em IA selecionados diariamente com traduções
Embora os Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês) tenham alcançado sucessos notáveis recentemente, eles são vulneráveis a certos ataques de "jailbreaking" que resultam na geração de conteúdo inadequado ou prejudicial. O red-teaming manual exige a descoberta de prompts adversariais que causam esse jailbreaking, por exemplo, ao anexar um sufixo a uma instrução dada, o que é ineficiente e consome muito tempo. Por outro lado, a geração automática de prompts adversariais frequentemente resulta em ataques semanticamente sem sentido que podem ser facilmente detectados por filtros baseados em perplexidade, podem exigir informações de gradiente do TargetLLM ou não escalam bem devido a processos de otimização discreta demorados no espaço de tokens. Neste artigo, apresentamos um método inovador que utiliza outro LLM, chamado AdvPrompter, para gerar prompts adversariais legíveis por humanos em segundos, cerca de 800 vezes mais rápido do que as abordagens baseadas em otimização existentes. Treinamos o AdvPrompter usando um algoritmo novo que não requer acesso aos gradientes do TargetLLM. Esse processo alterna entre dois passos: (1) gerar sufixos adversariais de alta qualidade ao otimizar as previsões do AdvPrompter e (2) ajuste fino de baixo rank do AdvPrompter com os sufixos adversariais gerados. O AdvPrompter treinado gera sufixos que ocultam a instrução de entrada sem alterar seu significado, de modo que o TargetLLM é induzido a fornecer uma resposta prejudicial. Resultados experimentais em TargetLLMs populares de código aberto mostram resultados de ponta no conjunto de dados AdvBench, que também se transferem para APIs de LLMs de código fechado e de caixa preta. Além disso, demonstramos que, ao ajustar finamente um conjunto de dados sintético gerado pelo AdvPrompter, os LLMs podem se tornar mais robustos contra ataques de jailbreaking enquanto mantêm o desempenho, ou seja, altas pontuações no MMLU.
Este artigo tem como objetivo gerar materiais para malhas 3D a partir de descrições textuais. Diferentemente dos métodos existentes que sintetizam mapas de textura, propomos gerar grafos de materiais procedimentais segmentados como representação de aparência, o que suporta renderização de alta qualidade e oferece flexibilidade significativa na edição. Em vez de depender de dados pareados extensivos, ou seja, malhas 3D com grafos de materiais e descrições textuais correspondentes, para treinar um modelo gerativo de grafos de materiais, propomos aproveitar o modelo de difusão 2D pré-treinado como uma ponte para conectar o texto e os grafos de materiais. Especificamente, nossa abordagem decompõe uma forma em um conjunto de segmentos e projeta um modelo de difusão controlado por segmentos para sintetizar imagens 2D que estão alinhadas com partes da malha. Com base nas imagens geradas, inicializamos os parâmetros dos grafos de materiais e os ajustamos finamente através do módulo de renderização diferenciável para produzir materiais de acordo com a descrição textual. Experimentos extensivos demonstram o desempenho superior de nossa estrutura em termos de fotorrealismo, resolução e editabilidade em comparação com os métodos existentes. Página do projeto: https://zhanghe3z.github.io/MaPa/