Dagelijks geselecteerde AI onderzoekspapers met vertalingen
LLM's hebben sterke wiskundige redeneervaardigheden getoond door gebruik te maken van reinforcement learning met lange ketens van gedachten, maar ze blijven moeite houden met het bewijzen van stellingen vanwege het ontbreken van duidelijke supervisiesignalen bij het uitsluitend gebruik van natuurlijke taal. Domeinspecifieke talen zoals Lean bieden duidelijke supervisie via formele verificatie van bewijzen, waardoor effectieve training door middel van reinforcement learning mogelijk wordt. In dit werk stellen we Seed-Prover voor, een lemma-stijl volledig-bewijs redeneermodel. Seed-Prover kan zijn bewijs iteratief verfijnen op basis van Lean-feedback, bewezen lemma's en zelf-samenvatting. Om IMO-niveau wedstrijdproblemen op te lossen, ontwerpen we drie testtijd inferentiestrategieën die zowel diep als breed redeneren mogelijk maken. Seed-Prover bewijst 78,1% van de geformaliseerde eerdere IMO-problemen, verzadigt MiniF2F en behaalt meer dan 50% op PutnamBench, wat een aanzienlijke verbetering is ten opzichte van de vorige state-of-the-art. Om het gebrek aan geometrie-ondersteuning in Lean aan te pakken, introduceren we een geometrie-redeneermachine Seed-Geometry, die eerdere formele geometrie-machines overtreft. We gebruiken deze twee systemen om deel te nemen aan de IMO 2025 en volledig 5 van de 6 problemen te bewijzen. Dit werk vertegenwoordigt een significante vooruitgang in geautomatiseerd wiskundig redeneren, en demonstreert de effectiviteit van formele verificatie met lange ketens van gedachten.
Met de ontwikkeling van multimodale redeneermodellen worden Computer Use Agents (CUAs), vergelijkbaar met Jarvis uit "Iron Man", werkelijkheid. GUI-gronding is een kerncomponent voor CUAs om daadwerkelijke acties uit te voeren, vergelijkbaar met mechanische controle in robotica, en het bepaalt direct het succes of falen van het systeem. Het bepaalt acties zoals klikken en typen, evenals gerelateerde parameters zoals de coördinaten voor klikken. Huidige end-to-end grondingsmodellen halen nog steeds minder dan 65\% nauwkeurigheid op uitdagende benchmarks zoals ScreenSpot-pro en UI-Vision, wat aangeeft dat ze nog lang niet klaar zijn voor implementatie. % , aangezien een enkele misklik onacceptabele gevolgen kan hebben. In dit werk voeren we een empirische studie uit naar de training van grondingsmodellen, waarbij we details onderzoeken van gegevensverzameling tot modeltraining. Uiteindelijk ontwikkelden we de Phi-Ground model-familie, die state-of-the-art prestaties behaalt op alle vijf grondingsbenchmarks voor modellen met minder dan 10B parameters in agent-instellingen. In de end-to-end model-instelling behaalt ons model nog steeds SOTA-resultaten met scores van \textbf{43.2} op ScreenSpot-pro en \textbf{27.2} op UI-Vision. Wij geloven dat de verschillende details die in dit artikel worden besproken, samen met onze successen en mislukkingen, niet alleen de constructie van grondingsmodellen verduidelijken, maar ook andere perceptietaken ten goede komen. Project homepage: https://zhangmiaosen2000.github.io/Phi-Ground/{https://zhangmiaosen2000.github.io/Phi-Ground/}
Gesproken Dialoogmodellen (SDM's) hebben recentelijk aanzienlijke aandacht getrokken vanwege hun vermogen om direct spraakreacties te genereren op gesproken vragen van gebruikers. Ondanks hun groeiende populariteit bestaat er een kloof in onderzoek dat zich richt op het uitgebreid begrijpen van hun praktische effectiviteit in het begrijpen en nabootsen van menselijke gesprekken. Dit geldt vooral in vergelijking met tekstgebaseerde Grote Taalmodellen (LLM's), die profiteren van uitgebreide benchmarking. Menselijke steminteracties zijn inherent complexer dan tekst vanwege kenmerken die uniek zijn voor gesproken dialoog. Ambiguïteit vormt een uitdaging, voortkomend uit semantische factoren zoals polysemie, evenals fonologische aspecten zoals heterografie, heteroniemen en klemtoonpatronen. Daarnaast voegt contextafhankelijkheid, zoals weglating, coreferentie en meerzijdige interactie, verdere complexiteit toe aan de dynamiek van menselijke gesprekken. Om de huidige stand van ontwikkeling van SDM's te belichten en deze uitdagingen aan te pakken, presenteren we in dit artikel een benchmarkdataset die 1.079 gevallen in het Engels en Chinees omvat. Begeleid door een op LLM gebaseerde evaluatiemethode die nauw aansluit bij menselijk oordeel, vergemakkelijkt deze dataset een uitgebreide verkenning van de prestaties van SDM's bij het aanpakken van deze praktische uitdagingen.
Aanbevelingssystemen behoren tot de meest invloedrijke toepassingen van kunstmatige intelligentie en fungeren als kritieke infrastructuur die gebruikers, handelaren en platforms met elkaar verbindt. De meeste huidige industriële systemen zijn echter nog steeds sterk afhankelijk van historische co-voorkomingspatronen en log-fitting doelstellingen, waarbij wordt geoptimaliseerd voor eerdere gebruikersinteracties zonder expliciet gebruikersintentie te modelleren. Deze log-fitting aanpak leidt vaak tot overfitting aan nauwe historische voorkeuren, waardoor de evoluerende en latente interesses van gebruikers niet worden vastgelegd. Als gevolg hiervan worden filterbubbels en long-tail fenomenen versterkt, wat uiteindelijk de gebruikerservaring schaadt en de duurzaamheid van het hele aanbevelingsecosysteem bedreigt. Om deze uitdagingen aan te pakken, heroverwegen we het algehele ontwerpparadigma van aanbevelingssystemen en introduceren we RecGPT, een next-generation framework dat gebruikersintentie centraal stelt in de aanbevelingspijplijn. Door grote taalmodellen (LLM's) te integreren in cruciale fasen zoals gebruikersinteresse-mining, itemretrieval en uitleggeneratie, transformeert RecGPT log-fitting aanbevelingen naar een intentie-gedreven proces. Om algemene LLM's effectief af te stemmen op deze domeinspecifieke aanbevelingstaken op grote schaal, omvat RecGPT een meerfasig trainingsparadigma, dat redenering-verbeterde pre-alignment en zelf-trainingsevolutie integreert, begeleid door een Human-LLM coöperatief beoordelingssysteem. Momenteel is RecGPT volledig geïmplementeerd in de Taobao App. Online experimenten tonen aan dat RecGPT consistente prestatieverbeteringen realiseert voor alle belanghebbenden: gebruikers profiteren van meer inhoudsdiversiteit en tevredenheid, terwijl handelaren en het platform meer exposure en conversies behalen. Deze alomvattende verbeteringsresultaten voor alle stakeholders valideren dat een LLM-gedreven, intentie-gedreven ontwerp een duurzamer en wederzijds voordelig aanbevelingsecosysteem kan bevorderen.
Visual-Language-Action (VLA)-modellen zijn naar voren gekomen als een populair paradigma voor het leren van robotmanipulatiebeleid dat taal instructies kan volgen en kan generaliseren naar nieuwe scenario's. Recent onderzoek begint de integratie van latente acties, een abstracte representatie van visuele verandering tussen twee frames, in VLA-pre-training te verkennen. In dit artikel introduceren we villa-X, een nieuw Visual-Language-Latent-Action (ViLLA)-raamwerk dat de modellering van latente acties voor het leren van generaliseerbare robotmanipulatiebeleid verder ontwikkelt. Onze aanpak verbetert zowel hoe latente acties worden geleerd als hoe ze worden geïntegreerd in VLA-pre-training. Samen zorgen deze bijdragen ervoor dat villa-X superieure prestaties behaalt in gesimuleerde omgevingen, waaronder SIMPLER en LIBERO, evenals op twee real-world robotopstellingen, waaronder grijper- en behendige handmanipulatie. Wij geloven dat het ViLLA-paradigma veelbelovend is en dat onze villa-X een sterke basis biedt voor toekomstig onderzoek.
Feed-forward 3D-modellering is naar voren gekomen als een veelbelovende benadering voor snelle en hoogwaardige 3D-reconstructie. In het bijzonder heeft het direct genereren van expliciete 3D-representaties, zoals 3D Gaussian splatting, aanzienlijke aandacht getrokken vanwege de snelle en hoogwaardige rendering, evenals de vele toepassingen. Veel state-of-the-art methoden, voornamelijk gebaseerd op transformer-architecturen, kampen echter met ernstige schaalbaarheidsproblemen omdat ze afhankelijk zijn van volledige aandacht tussen beeldtokens uit meerdere invoerweergaven, wat resulteert in onhoudbare rekenkosten naarmate het aantal weergaven of de beeldresolutie toeneemt. Met het oog op een schaalbare en efficiënte feed-forward 3D-reconstructie introduceren we een iteratief Large 3D Reconstruction Model (iLRM) dat 3D Gaussian-representaties genereert via een iteratief verfijningsmechanisme, geleid door drie kernprincipes: (1) het ontkoppelen van de scène-representatie van invoerbeeldweergaven om compacte 3D-representaties mogelijk te maken; (2) het ontbinden van volledig-attentionele multi-view-interacties in een tweestaps attentieschema om rekenkosten te verminderen; en (3) het injecteren van hoogresolutie-informatie in elke laag om hoogwaardige reconstructie te bereiken. Experimentele resultaten op veelgebruikte datasets, zoals RE10K en DL3DV, tonen aan dat iLRM bestaande methoden overtreft in zowel reconstructiekwaliteit als snelheid. Opmerkelijk is dat iLRM superieure schaalbaarheid vertoont en aanzienlijk hogere reconstructiekwaliteit levert bij vergelijkbare rekenkosten door efficiënt gebruik te maken van een groter aantal invoerweergaven.
Grote taalmodellen interageren met gebruikers via een gesimuleerd 'Assistant'-personage. Hoewel de Assistant doorgaans is getraind om behulpzaam, onschadelijk en eerlijk te zijn, wijkt deze soms af van deze idealen. In dit artikel identificeren we richtingen in de activatieruimte van het model—personagevectoren—die ten grondslag liggen aan verschillende eigenschappen, zoals kwaadaardigheid, slaafs gedrag en de neiging tot hallucineren. We bevestigen dat deze vectoren kunnen worden gebruikt om fluctuaties in het personage van de Assistant tijdens de inzet te monitoren. Vervolgens passen we personagevectoren toe om persoonlijkheidsverschuivingen die tijdens de training optreden te voorspellen en te controleren. We ontdekken dat zowel beoogde als onbedoelde persoonlijkheidsveranderingen na finetuning sterk gecorreleerd zijn met verschuivingen langs de relevante personagevectoren. Deze verschuivingen kunnen worden gemitigeerd door post-hoc interventie, of in de eerste plaats worden voorkomen met een nieuwe preventieve stuurmethode. Bovendien kunnen personagevectoren worden gebruikt om trainingsdata te markeren die ongewenste persoonlijkheidsveranderingen zullen veroorzaken, zowel op datasetniveau als op het niveau van individuele voorbeelden. Onze methode voor het extraheren van personagevectoren is geautomatiseerd en kan worden toegepast op elke gewenste persoonlijkheidseigenschap, gegeven alleen een beschrijving in natuurlijke taal.
Hoewel Reinforcement Learning (RL) opmerkelijke successen heeft geboekt in taalmodellering, is deze triomf nog niet volledig vertaald naar visuomotore agenten. Een primaire uitdaging bij RL-modellen is hun neiging om te overfitten op specifieke taken of omgevingen, wat het verwerven van generaliseerbaar gedrag over diverse situaties belemmert. Dit artikel biedt een voorlopig antwoord op deze uitdaging door aan te tonen dat RL-fijn afgestelde visuomotore agenten in Minecraft zero-shot generalisatie naar onbekende werelden kunnen bereiken. Specifiek onderzoeken we het potentieel van RL om generaliseerbare ruimtelijke redeneer- en interactievaardigheden in 3D-werelden te verbeteren. Om uitdagingen in multi-task RL-representatie aan te pakken, analyseren en vestigen we cross-view doel specificatie als een uniforme multi-task doelruimte voor visuomotore beleidsregels. Bovendien, om de aanzienlijke bottleneck van handmatige taakontwerpen te overwinnen, stellen we geautomatiseerde taaksynthese voor binnen de zeer aanpasbare Minecraft-omgeving voor grootschalige multi-task RL-training, en construeren we een efficiënt gedistribueerd RL-framework om dit te ondersteunen. Experimentele resultaten tonen aan dat RL de interactiesuccespercentages aanzienlijk verhoogt met een factor 4 en zero-shot generalisatie van ruimtelijk redeneren over diverse omgevingen mogelijk maakt, inclusief real-world settings. Onze bevindingen onderstrepen het immense potentieel van RL-training in gesimuleerde 3D-omgevingen, vooral die geschikt zijn voor grootschalige taakgeneratie, om de ruimtelijke redeneervaardigheden van visuomotore agenten aanzienlijk vooruit te helpen.
We introduceren NeRF-GS, een nieuw framework dat Neural Radiance Fields (NeRF) en 3D Gaussian Splatting (3DGS) gezamenlijk optimaliseert. Dit framework benut de inherente continue ruimtelijke representatie van NeRF om verschillende beperkingen van 3DGS te verminderen, waaronder gevoeligheid voor Gaussische initialisatie, beperkt ruimtelijk bewustzijn en zwakke inter-Gaussische correlaties, waardoor de prestaties worden verbeterd. In NeRF-GS herzien we het ontwerp van 3DGS en brengen de ruimtelijke kenmerken geleidelijk in lijn met NeRF, waardoor beide representaties binnen dezelfde scène kunnen worden geoptimaliseerd via gedeelde 3D-ruimtelijke informatie. We gaan verder in op de formele verschillen tussen de twee benaderingen door restvectoren te optimaliseren voor zowel impliciete kenmerken als Gaussische posities, om de gepersonaliseerde mogelijkheden van 3DGS te versterken. Experimentele resultaten op benchmarkdatasets tonen aan dat NeRF-GS bestaande methoden overtreft en state-of-the-art prestaties bereikt. Dit resultaat bevestigt dat NeRF en 3DGS complementair zijn in plaats van concurrerend, wat nieuwe inzichten biedt in hybride benaderingen die 3DGS en NeRF combineren voor efficiënte 3D-scènerrepresentatie.
Multimodale grote taalmodellen (MLLMs) maken visueel-taalkundige redenering mogelijk, maar genereren vaak plausibele uitvoer die feitelijk onjuist of visueel ongegrond is, waardoor hun betrouwbaarheid wordt aangetast. Direct preference optimization (DPO) is een veelgebruikte strategie om hallucinaties te corrigeren door modeluitvoer af te stemmen op menselijke voorkeuren. Bestaande DPO-strategieën behandelen hallucinatiegerelateerde voorkeuren doorgaans als vaste doelen, waarbij ze vertrouwen op statische supervisiesignalen tijdens de training. Deze aanpak heeft de neiging om te overfitten op oppervlakkige taalkundige signalen in voorkeursdata, wat leidt tot distributierigiditeit en valse correlaties die de verankering in causaal relevante visuele informatie aantasten. Om deze beperking te overwinnen, stellen we TARS voor, een token-adaptieve voorkeursstrategie die DPO herformuleert als een min-max optimalisatieprobleem. TARS maximaliseert token-niveau distributieverschuivingen onder semantische beperkingen om afstemmingsonzekerheid te simuleren, en minimaliseert tegelijkertijd het verwachte voorkeursverlies onder deze gecontroleerde verstoringen. Dit gezamenlijke doel behoudt causale verankering terwijl overfitting aan voorkeurspatronen wordt verminderd, waardoor hallucinaties in multimodale redeneringen worden teruggedrongen. We evalueren TARS op meerdere hallucinatiebenchmarks en vinden consistent sterke prestaties. Met slechts 4.8k voorkeursmonsters en zonder expertfeedback reduceert TARS hallucinatieratio's van 26.4% naar 13.2% en verlaagt het cognitiewaarde van 2.5 naar 0.4. Het overtreft standaard DPO en evenaart GPT-4o op verschillende belangrijke metrieken.
Precies automatisch begrip van landbouwtaken zoals ziekteherkenning is essentieel voor duurzame gewasproductie. Recente vooruitgang in vision-language modellen (VLMs) wordt verwacht het bereik van landbouwtaken verder uit te breiden door mens-model interactie te vergemakkelijken via eenvoudige, tekstgebaseerde communicatie. Hier introduceren we AgroBench (Agronomist AI Benchmark), een benchmark voor het evalueren van VLM-modellen over zeven landbouwonderwerpen, die belangrijke gebieden in de landbouwkunde bestrijken en relevant zijn voor de praktijk in de landbouw. In tegenstelling tot recente landbouw-VLM benchmarks, is AgroBench geannoteerd door expert-agronomen. Onze AgroBench omvat een state-of-the-art reeks categorieën, waaronder 203 gewascategorieën en 682 ziektecategorieën, om de mogelijkheden van VLMs grondig te evalueren. In onze evaluatie op AgroBench tonen we aan dat VLMs ruimte voor verbetering hebben in fijnmazige identificatietaken. Met name bij onkruidherkenning presteren de meeste open-source VLMs bijna op willekeurig niveau. Met ons brede scala aan onderwerpen en expert-geannoteerde categorieën analyseren we de soorten fouten die VLMs maken en suggereren we mogelijke richtingen voor toekomstige VLM-ontwikkeling. Onze dataset en code zijn beschikbaar op https://dahlian00.github.io/AgroBenchPage/.
Kunststijlclassificatie blijft een formidabele uitdaging in computationele esthetiek vanwege de schaarste aan deskundig gelabelde datasets en het ingewikkelde, vaak niet-lineaire samenspel van stilistische elementen. Hoewel recente dual-teacher zelfgesuperviseerde frameworks de afhankelijkheid van gelabelde data verminderen, hebben hun lineaire projectielagen en gelokaliseerde focus moeite met het modelleren van globale compositorische context en complexe stijlkenmerkinteracties. Wij verbeteren het dual-teacher kennisdistillatiekader om deze beperkingen aan te pakken door conventionele MLP-projectie- en voorspellingskoppen te vervangen door Kolmogorov-Arnold Netwerken (KANs). Onze aanpak behoudt complementaire begeleiding van twee leraarnetwerken, waarbij de ene zich richt op gelokaliseerde textuur- en penseelstreekpatronen en de andere bredere stilistische hiërarchieën vastlegt, terwijl KANs' spline-gebaseerde activaties worden benut om niet-lineaire kenmerkcorrelaties met wiskundige precisie te modelleren. Experimenten op WikiArt en Pandora18k tonen aan dat onze aanpak de basis dual-teacher-architectuur overtreft in Top-1 nauwkeurigheid. Onze bevindingen benadrukken het belang van KANs bij het ontwarren van complexe stijlmanifolden, wat leidt tot betere lineaire probe-nauwkeurigheid dan MLP-projecties.
Sinds de introductie ervan is softmax-attentie de ruggengraat geworden van moderne transformer-architecturen vanwege de expressiviteit en schaalbaarheid ervan over een breed scala aan taken. Het belangrijkste nadeel van softmax-attentie is echter het kwadratische geheugenvereiste en de rekenkundige complexiteit ten opzichte van de sequentielengte. Door de softmax-non-lineariteit te vervangen, zijn lineaire aandacht en soortgelijke methoden geïntroduceerd om het kwadratische knelpunt van softmax-attentie te vermijden. Hoewel deze lineaire vormen van aandacht zijn afgeleid van de oorspronkelijke softmax-formulering, blijven ze doorgaans achter in termen van downstream-nauwkeurigheid. Hoewel een sterke intuïtie van de softmax-non-lineariteit op het inwendige product van query en key suggereert dat het wenselijke eigenschappen heeft in vergelijking met andere non-lineariteiten, blijft de vraag waarom deze discrepantie bestaat nog steeds onbeantwoord. Dit werk toont aan dat lineaire aandacht een benadering is van softmax-attentie door de recurrente vorm van softmax-attentie af te leiden. Met behulp van deze vorm kan elk onderdeel van softmax-attentie worden beschreven in de taal van recurrente neurale netwerken (RNN's). Het beschrijven van softmax-attentie als een RNN maakt het mogelijk om de componenten van softmax-attentie te isoleren om het belang van elk onderdeel en hoe ze interageren te begrijpen. Op deze manier helpt ons werk te verklaren waarom softmax-attentie expressiever is dan zijn tegenhangers.
Data komt bij onze zintuigen binnen als een continue stroom, die soepel transformeert van het ene moment naar het volgende. Deze soepele transformaties kunnen worden gezien als continue symmetrieën van de omgeving waarin we leven, die equivalentierelaties definiëren tussen stimuli over tijd. In machine learning worden neurale netwerkarchitecturen die symmetrieën van hun data respecteren, equivariant genoemd en hebben ze bewezen voordelen in termen van generalisatievermogen en steekproefficiëntie. Tot op heden is equivariantie echter alleen overwogen voor statische transformaties en feed-forward netwerken, wat de toepasbaarheid ervan beperkt tot sequentiemodellen, zoals recurrent neural networks (RNN's), en bijbehorende tijd-geparameteriseerde sequentietransformaties. In dit werk breiden we de equivariante netwerktheorie uit naar dit regime van 'flows' — één-parameter Lie-subgroepen die natuurlijke transformaties over tijd vastleggen, zoals visuele beweging. We beginnen door aan te tonen dat standaard RNN's over het algemeen niet flow-equivariant zijn: hun verborgen toestanden transformeren niet op een geometrisch gestructureerde manier voor bewegende stimuli. Vervolgens laten we zien hoe flow-equivariantie kan worden geïntroduceerd, en demonstreren we dat deze modellen hun niet-equivariante tegenhangers significant overtreffen in termen van trainingssnelheid, lengtegeneralisatie en snelheidsgeneralisatie, zowel bij voorspelling van de volgende stap als bij sequentieclassificatie. We presenteren dit werk als een eerste stap naar het bouwen van sequentiemodellen die de tijd-geparameteriseerde symmetrieën respecteren die de wereld om ons heen beheersen.
Arabisch vormt een bijzondere uitdaging voor natuurlijke taalverwerking (NLP) en informatiezoeken (IR) vanwege de complexe morfologie, optionele diakritische tekens en de naast elkaar bestaande vormen van Modern Standaard Arabisch (MSA) en verschillende dialecten. Ondanks de toenemende wereldwijde betekenis van Arabisch, is het nog steeds ondervertegenwoordigd in NLP-onderzoek en benchmarkbronnen. In dit artikel presenteren we een verbeterd Dense Passage Retrieval (DPR)-framework dat specifiek is ontwikkeld voor Arabisch. De kern van onze aanpak is een nieuwe Attentive Relevance Scoring (ARS) die standaard interactiemechanismen vervangt door een adaptieve scoringsfunctie die de semantische relevantie tussen vragen en passages effectiever modelleert. Onze methode integreert vooraf getrainde Arabische taalmodellen en architectonische verfijningen om de zoekprestaties te verbeteren en de rangschikkingsnauwkeurigheid bij het beantwoorden van Arabische vragen aanzienlijk te verhogen. De code is openbaar beschikbaar gemaakt op https://github.com/Bekhouche/APR{GitHub}.
Vanwege groeiende privacyzorgen heeft machine unlearning, dat als doel heeft om machine learning-modellen specifieke trainingsdata te laten "vergeten", steeds meer aandacht gekregen. Onder de bestaande methoden is influence-based unlearning naar voren gekomen als een prominente aanpak vanwege zijn vermogen om de impact van individuele trainingsvoorbeelden op modelparameters te schatten zonder hertraining. Deze aanpak kampt echter met een verbijsterende rekenkundige overhead die voortkomt uit de noodzaak om de Hessiaanmatrix en zijn inverse te berekenen over alle trainingsvoorbeelden en parameters, wat het onpraktisch maakt voor grootschalige modellen en scenario's waarbij frequente verzoeken tot gegevensverwijdering plaatsvinden. Dit onderstreept de moeilijkheid van vergeten. Geïnspireerd door de cognitieve wetenschap, die suggereert dat onthouden gemakkelijker is dan vergeten, legt dit artikel een theoretische link tussen onthouden (incrementeel leren) en vergeten (unlearning). Deze verbinding maakt het mogelijk om machine unlearning te benaderen vanuit het perspectief van incrementeel leren. In tegenstelling tot de tijdrovende Hessiaanberekeningen bij unlearning (vergeten), vertrouwt incrementeel leren (onthouden) doorgaans op efficiëntere gradientoptimalisatie, wat de eerdergenoemde cognitieve theorie ondersteunt. Op basis van deze verbinding introduceren we het Influence Approximation Unlearning (IAU)-algoritme voor efficiënte machine unlearning vanuit het incrementele perspectief. Uitgebreide empirische evaluaties tonen aan dat IAU een superieure balans bereikt tussen verwijderingsgarantie, unlearning-efficiëntie en vergelijkbare modelnut, terwijl het state-of-the-art methoden overtreft op diverse datasets en modelarchitecturen. Onze code is beschikbaar op https://github.com/Lolo1222/IAU.