Dagelijks geselecteerde AI onderzoekspapers met vertalingen
Hoewel Large Language Models (LLM's) recentelijk opmerkelijke successen hebben geboekt, zijn ze kwetsbaar voor bepaalde jailbreaking-aanvallen die leiden tot het genereren van ongepaste of schadelijke inhoud. Handmatige red-teaming vereist het vinden van adversariale prompts die dergelijke jailbreaking veroorzaken, bijvoorbeeld door een achtervoegsel aan een gegeven instructie toe te voegen, wat inefficiënt en tijdrovend is. Aan de andere kant leidt automatische generatie van adversariale prompts vaak tot semantisch betekenisloze aanvallen die gemakkelijk kunnen worden gedetecteerd door perplexiteit-gebaseerde filters, mogelijk gradientinformatie van de TargetLLM vereisen, of niet goed schalen vanwege tijdrovende discrete optimalisatieprocessen over de tokenruimte. In dit artikel presenteren we een nieuwe methode die een andere LLM, genaamd de AdvPrompter, gebruikt om binnen enkele seconden menselijk leesbare adversariale prompts te genereren, wat ongeveer 800 keer sneller is dan bestaande optimalisatie-gebaseerde benaderingen. We trainen de AdvPrompter met een nieuw algoritme dat geen toegang vereist tot de gradients van de TargetLLM. Dit proces wisselt af tussen twee stappen: (1) het genereren van hoogwaardige target adversariale achtervoegsels door de voorspellingen van de AdvPrompter te optimaliseren, en (2) low-rank fine-tuning van de AdvPrompter met de gegenereerde adversariale achtervoegsels. De getrainde AdvPrompter genereert achtervoegsels die de invoerinstructie verhullen zonder de betekenis ervan te veranderen, zodat de TargetLLM wordt verleid om een schadelijk antwoord te geven. Experimentele resultaten op populaire open-source TargetLLM's tonen state-of-the-art resultaten op de AdvBench-dataset, die ook overdraagbaar zijn naar closed-source black-box LLM-API's. Verder demonstreren we dat door fine-tuning op een synthetische dataset gegenereerd door AdvPrompter, LLM's robuuster kunnen worden gemaakt tegen jailbreaking-aanvallen terwijl de prestaties behouden blijven, d.w.z. hoge MMLU-scores.
Dit artikel beoogt materialen voor 3D-meshes te genereren op basis van tekstbeschrijvingen. In tegenstelling tot bestaande methoden die texture maps synthetiseren, stellen wij voor om segmentgewijze procedurele materiaalgrafieken te genereren als de representatie van het uiterlijk, wat hoogwaardige rendering ondersteunt en aanzienlijke flexibiliteit biedt bij het bewerken. In plaats van te vertrouwen op uitgebreide gepaarde gegevens, zoals 3D-meshes met materiaalgrafieken en bijbehorende tekstbeschrijvingen, om een generatief model voor materiaalgrafieken te trainen, stellen wij voor om het vooraf getrainde 2D-diffusiemodel te gebruiken als een brug om de tekst en materiaalgrafieken te verbinden. Specifiek deelt onze aanpak een vorm op in een reeks segmenten en ontwerpt een segment-gestuurd diffusiemodel om 2D-afbeeldingen te synthetiseren die zijn uitgelijnd met mesh-onderdelen. Op basis van gegenereerde afbeeldingen initialiseren we parameters van materiaalgrafieken en verfijnen we deze via de differentieerbare renderingmodule om materialen te produceren die overeenkomen met de tekstuele beschrijving. Uitgebreide experimenten tonen de superieure prestaties van ons framework aan op het gebied van fotorealisme, resolutie en bewerkbaarheid in vergelijking met bestaande methoden. Projectpagina: https://zhanghe3z.github.io/MaPa/