Dagelijks geselecteerde AI onderzoekspapers met vertalingen
Grote taalmodellen (LLM's) zijn beperkt tot redeneren in de "taalruimte", waar ze doorgaans het redeneerproces uitdrukken met een keten van gedachten (CoT) om een complex redeneerprobleem op te lossen. We betogen echter dat de taalruimte niet altijd optimaal is voor redeneren. Zo zijn de meeste woordtokens voornamelijk voor tekstuele samenhang en niet essentieel voor redeneren, terwijl sommige kritieke tokens complexe planning vereisen en enorme uitdagingen vormen voor LLM's. Om het potentieel van LLM-redeneren te verkennen in een onbeperkte latente ruimte in plaats van natuurlijke taal te gebruiken, introduceren we een nieuw paradigma Coconut (Keten van Continue Gedachte). We gebruiken de laatste verborgen toestand van de LLM als een representatie van de redeneertoestand (genaamd "continue gedachte"). In plaats van dit te decoderen tot een woordtoken, voeren we het direct terug naar de LLM als de daaropvolgende invoer-embedding in de continue ruimte. Experimenten tonen aan dat Coconut effectief de LLM kan versterken bij verschillende redeneertaken. Dit nieuwe latente redeneerparadigma leidt tot opkomende geavanceerde redeneerpatronen: de continue gedachte kan meerdere alternatieve volgende redeneerstappen coderen, waardoor het model een breedte-eerst zoeken (BFS) kan uitvoeren om het probleem op te lossen, in plaats van zich vroegtijdig te committeren aan een enkel deterministisch pad zoals CoT. Coconut presteert beter dan CoT bij bepaalde logische redeneertaken die aanzienlijke terugtracking vereisen tijdens de planning, met minder denktokens tijdens inferentie. Deze bevindingen tonen de belofte van latente redenering en bieden waardevolle inzichten voor toekomstig onderzoek.
Aangezien taalmodellen regelmatig fouten maken bij het oplossen van wiskundige problemen, wordt geautomatiseerde identificatie van fouten in het redeneerproces steeds belangrijker voor hun schaalbare toezicht. In dit artikel introduceren we ProcessBench om de vaardigheid te meten om foutieve stappen in wiskundig redeneren te identificeren. Het bestaat uit 3.400 testgevallen, voornamelijk gericht op wiskundige problemen op competitie- en Olympisch niveau. Elk testgeval bevat een stapsgewijze oplossing met de locatie van de fout geannoteerd door menselijke experts. Modellen moeten de vroegste stap identificeren die een fout bevat, of concluderen dat alle stappen correct zijn. We voeren uitgebreide evaluaties uit op ProcessBench, waarbij twee soorten modellen betrokken zijn: procesbeloningsmodellen (PRM's) en criticusmodellen, waarbij we voor de laatste algemene taalmodellen vragen om elke oplossingsstap kritisch te bekijken. We trekken twee belangrijke observaties: (1) Bestaande PRM's falen doorgaans om te generaliseren naar uitdagendere wiskundige problemen dan GSM8K en MATH. Ze presteren minder dan criticusmodellen (d.w.z. door algemene taalmodellen gevraagd) en onze eigen getrainde PRM die eenvoudig is afgestemd op de PRM800K-dataset. (2) Het beste open-source model, QwQ-32B-Preview, heeft de kritiekcapaciteit aangetoond die concurrerend is met het eigen model GPT-4o, hoewel het nog steeds achterloopt op de op redenering gespecialiseerde o1-mini. We hopen dat ProcessBench toekomstig onderzoek naar de beoordeling van redeneerprocessen kan bevorderen, waardoor de weg wordt vrijgemaakt naar schaalbaar toezicht op taalmodellen.
De integratie van geheugen in agenten is essentieel voor tal van taken binnen het domein van Reinforcement Learning (RL). Met name voor taken die het gebruik van eerdere informatie vereisen, aanpassing aan nieuwe omgevingen en verbeterde steekproefeffectiviteit is geheugen van cruciaal belang. Echter, de term "geheugen" omvat een breed scala aan concepten, wat, samen met het ontbreken van een eenduidige methodologie voor het valideren van het geheugen van een agent, leidt tot onjuiste oordelen over de geheugencapaciteiten van agenten en voorkomt objectieve vergelijking met andere geheugenverbeterde agenten. Dit artikel heeft tot doel het concept van geheugen in RL te stroomlijnen door praktische en nauwkeurige definities te geven van agentgeheugentypen, zoals langetermijn- versus kortetermijngeheugen en declaratief versus procedureel geheugen, geïnspireerd door cognitieve wetenschap. Met behulp van deze definities categoriseren we verschillende klassen van agentgeheugen, stellen we een robuuste experimentele methodologie voor om de geheugencapaciteiten van RL-agenten te evalueren, en standaardiseren we evaluaties. Bovendien tonen we empirisch het belang aan van het naleven van de voorgestelde methodologie bij het evalueren van verschillende soorten agentgeheugen door experimenten uit te voeren met verschillende RL-agenten en wat de schending ervan tot gevolg heeft.
De snelle ontwikkeling van grote Vision-Language Modellen (VLM's) heeft geleid tot indrukwekkende resultaten op academische benchmarks, voornamelijk in veel gesproken talen. Er blijven echter aanzienlijke hiaten bestaan in het vermogen van huidige VLM's om om te gaan met talen met weinig bronnen en gevarieerde culturele contexten, grotendeels als gevolg van een gebrek aan hoogwaardige, diverse en veiligheid-gecontroleerde gegevens. Als gevolg hiervan hebben deze modellen vaak moeite om talen met weinig bronnen en culturele nuances te begrijpen op een manier die vrij is van toxiciteit. Om deze beperkingen aan te pakken, introduceren we Maya, een open-source Multimodaal Multilinguaal model. Onze bijdragen zijn drievoudig: 1) een multilinguale afbeelding-tekst pretraining dataset in acht talen, gebaseerd op de LLaVA pretraining dataset; 2) een grondige analyse van toxiciteit binnen de LLaVA dataset, gevolgd door de creatie van een nieuwe toxiciteitvrije versie in acht talen; en 3) een multilinguaal afbeelding-tekst model dat deze talen ondersteunt, waardoor cultureel en taalkundig begrip wordt verbeterd bij visie-taal taken. Code beschikbaar op https://github.com/nahidalam/maya.
Wereldwijde visuele geolocatie voorspelt waar een afbeelding op aarde is vastgelegd. Aangezien afbeeldingen variëren in hoe nauwkeurig ze kunnen worden gelokaliseerd, omvat deze taak inherent een aanzienlijke mate van ambiguïteit. Bestaande benaderingen zijn echter deterministisch en zien dit aspect over het hoofd. In dit artikel streven we ernaar om de kloof te dichten tussen traditionele geolocatie en moderne generatieve methoden. We stellen de eerste generatieve geolocatiebenadering voor op basis van diffusie en Riemanniaanse stroommatching, waarbij het denoisingproces rechtstreeks op het aardoppervlak werkt. Ons model behaalt state-of-the-art prestaties op drie visuele geolocatie-benchmarks: OpenStreetView-5M, YFCC-100M en iNat21. Bovendien introduceren we de taak van probabilistische visuele geolocatie, waarbij het model een kansverdeling voorspelt over alle mogelijke locaties in plaats van een enkel punt. We introduceren nieuwe metrieken en baselines voor deze taak, waarbij we de voordelen van onze op diffusie gebaseerde benadering aantonen. Codes en modellen zullen beschikbaar worden gesteld.
In de afgelopen jaren is er een aanzienlijke toename van interesse geweest in het verenigen van beeldbegrip en -generatie binnen Grote Taalmodellen (LLM's). Deze groeiende interesse heeft ons aangespoord om deze vereniging uit te breiden naar video's. De kernuitdaging ligt in het ontwikkelen van een veelzijdige videotokenizer die zowel de ruimtelijke kenmerken als de temporele dynamiek van video's vastlegt om representaties voor LLM's te verkrijgen, en de representaties kunnen verder worden gedecodeerd tot realistische videoclips om videogeneratie mogelijk te maken. In dit werk introduceren we Divot, een Diffusie-Aangedreven VideoTokenizer, die gebruikmaakt van het diffusieproces voor zelfbegeleidende videorepresentatie-leren. We veronderstellen dat als een video-diffusiemodel videoclips effectief kan denoiseren door de kenmerken van een videotokenizer als de conditie te nemen, de tokenizer met succes robuuste ruimtelijke en temporele informatie heeft vastgelegd. Bovendien fungeert het video-diffusiemodel op intrinsieke wijze als een detokenizer, waarbij video's worden gedecodeerd uit hun representaties. Voortbouwend op de Divot-tokenizer presenteren we Divot-Vicuna via video-naar-tekst autoregressie en tekst-naar-video generatie door de distributies van continue Divot-kenmerken te modelleren met een Gaussische Mengmodel. Experimentele resultaten tonen aan dat onze diffusie-gebaseerde videotokenizer, wanneer geïntegreerd met een voorgeleerd LLM, concurrerende prestaties behaalt over verschillende video-begrip en -generatie benchmarks. De instructie afgestemde Divot-Vicuna blinkt ook uit in videoverhalen, waarbij geïnterlinieerde verhalen en bijbehorende video's worden gegenereerd.
Multimodale Grote Taalmodellen (MLLM's) excelleren in visie-taal taken door alleen vooraf te trainen op grofkorrelige concept annotaties (bijv. afbeelding bijschriften). Wij veronderstellen dat het integreren van fijnkorrelige concept annotaties (bijv. object labels en object regio's) de prestaties verder zal verbeteren, aangezien beide gegevensgranulariteiten elkaar aanvullen wat betreft de breedte en diepte in concept representatie. Wij introduceren een nieuwe dataset met Multimodale Multi-Korrelige Concept annotaties (MMGiC) voor MLLM's. Bij het construeren van MMGiC onderzoeken we de impact van verschillende gegevensrecepten op multimodale begrip en generatie. Onze analyses tonen aan dat multi-korrelige concept annotaties elkaar integreren en aanvullen, binnen ons gestructureerde sjabloon en een algemeen MLLM kader. We verkennen en tonen duidelijk het potentieel van MMGiC om MLLM's te helpen bij het beter lokaliseren en leren van concepten, door visie en taal op meerdere granulariteiten op elkaar af te stemmen. We valideren onze hypothese verder door het onderzoeken van de eerlijke vergelijking en effectieve samenwerking tussen MMGiC en afbeelding-bijschrift gegevens op 12 multimodale begrips- en generatie benchmarks, bijv. hun juiste combinatie levert 3.95% en 2.34% absolute verbeteringen op ten opzichte van alleen afbeelding-bijschrift gegevens op POPE en SEED-Bench. Code, gegevens en modellen zullen beschikbaar zijn op https://github.com/LooperXX/MMGiC.
Recente 3D-generatiemodellen vertrouwen doorgaans op beperkte schaal 3D 'goudlabels' of 2D-diffusiepriors voor 3D-contentcreatie. Hun prestaties worden echter beperkt door beperkte 3D-priors vanwege het ontbreken van schaalbare leermethoden. In dit werk presenteren we See3D, een visueel-conditioneel multi-view diffusiemodel dat is getraind op grootschalige internetvideo's voor open-wereld 3D-creatie. Het model streeft ernaar 3D-kennis te verkrijgen door enkel de visuele inhoud te zien van de uitgebreide en snelgroeiende videogegevens - Je ziet het, je hebt het. Om dit te bereiken, schalen we eerst de trainingsgegevens op met behulp van een voorgestelde gegevenscuratiepijplijn die automatisch inconsistente multi-view beelden en onvoldoende observaties uit bronvideo's filtert. Dit resulteert in een hoogwaardige, rijk gevarieerde, grootschalige dataset van multi-view beelden, genaamd WebVi3D, met 320 miljoen frames uit 16 miljoen videoclips. Desalniettemin is het leren van generieke 3D-priors uit video's zonder expliciete 3D-geometrie of camerapositieannotaties niet triviaal, en het annoteren van posities voor web-schaal video's is buitengewoon duur. Om de noodzaak van posities te elimineren, introduceren we een innovatieve visuele conditie - een puur 2D-inductief visueel signaal gegenereerd door tijdafhankelijk ruis toe te voegen aan de gemaskeerde videogegevens. Tot slot introduceren we een nieuw visueel-conditioneel 3D-generatiekader door See3D te integreren in een op warping gebaseerde pijplijn voor hoogwaardige 3D-generatie. Onze numerieke en visuele vergelijkingen op enkele en schaarse reconstructie-benchmarks tonen aan dat See3D, getraind op kosteneffectieve en schaalbare videogegevens, opmerkelijke zero-shot en open-wereld generatiecapaciteiten bereikt, aanzienlijk beter presterend dan modellen getraind op dure en beperkte 3D-datasets. Raadpleeg onze projectpagina op: https://vision.baai.ac.cn/see3d
Lineaire Transformers hebben aandacht gekregen als efficiënte alternatieven voor standaard Transformers, maar hun prestaties bij ophalen en taken met een lange context zijn beperkt gebleven. Om deze beperkingen aan te pakken, heeft recent onderzoek twee verschillende mechanismen verkend: gating voor adaptieve geheugenregeling en de delta-update regel voor nauwkeurige geheugenwijzigingen. We merken op dat deze mechanismen complementair zijn: gating maakt snelle geheugenwissing mogelijk terwijl de delta-regel gerichte updates vergemakkelijkt. Voortbouwend op deze inzichten introduceren we de gated delta-regel en ontwikkelen we een parallel trainingsalgoritme geoptimaliseerd voor moderne hardware. Onze voorgestelde architectuur, Gated DeltaNet, overtreft consequent bestaande modellen zoals Mamba2 en DeltaNet op meerdere benchmarks, waaronder taalmodellering, gezond verstand redeneren, in-context ophalen, lengte-extrapolatie en begrip van lange context. We verbeteren de prestaties verder door hybride architecturen te ontwikkelen die Gated DeltaNet-lagen combineren met aandacht met schuifvenster of Mamba2-lagen, waardoor zowel de trainings-efficiëntie als de taakprestaties worden verbeterd.
Het extraheren van documentinhoud is cruciaal in computer vision, vooral voor het voldoen aan de hoge kwaliteitsgegevensbehoeften van grote taalmodellen (LLM's) en technologieën voor opvraag-verrijkte generatie (RAG). Huidige methoden voor het analyseren van documenten kampen echter met aanzienlijke beperkingen op het gebied van diversiteit en uitgebreide evaluatie. Om deze uitdagingen aan te pakken, introduceren we OmniDocBench, een nieuw multi-source benchmark ontworpen om geautomatiseerde extractie van documentinhoud te bevorderen. OmniDocBench bevat een zorgvuldig samengestelde en geannoteerde dataset van hoge kwaliteit met negen diverse documenttypen, zoals academische papers, studieboeken, presentaties, en andere. Onze benchmark biedt een flexibel en uitgebreid evaluatiekader met 19 lay-outcategorieën en 14 attribuutlabels, waardoor multi-level beoordelingen mogelijk zijn over gehele datasets, individuele modules, of specifieke gegevenstypen. Met behulp van OmniDocBench voeren we een uitputtende vergelijkende analyse uit van bestaande modulaire pipelines en multimodale end-to-end methoden, waarbij hun beperkingen in het omgaan met documentdiversiteit worden benadrukt en een eerlijke evaluatie wordt gewaarborgd. OmniDocBench stelt een robuuste, diverse en eerlijke evaluatiestandaard vast voor het veld van documentinhoudsextractie, en biedt cruciale inzichten voor toekomstige ontwikkelingen en bevordert de ontwikkeling van technologieën voor het analyseren van documenten. De codes en dataset zijn beschikbaar op https://github.com/opendatalab/OmniDocBench.
In dit werk stellen we de eerste bewegingsoverdrachtsbenadering voor in diffusietransformator via Mixture of Score Guidance (MSG), een theoretisch gefundeerd kader voor bewegingsoverdracht in diffusiemodellen. Onze belangrijkste theoretische bijdrage ligt in het herformuleren van conditionele score om bewegingsscore en inhoudsscore te ontbinden in diffusiemodellen. Door bewegingsoverdracht te formuleren als een mengsel van potentiële energieën behoudt MSG op natuurlijke wijze scènecompositie en maakt het creatieve scènetransformaties mogelijk terwijl de integriteit van overgedragen bewegingspatronen wordt behouden. Deze nieuwe bemonstering werkt rechtstreeks op vooraf getrainde video-diffusiemodellen zonder extra training of fijnafstemming. Via uitgebreide experimenten toont MSG succesvolle behandeling van diverse scenario's, waaronder enkel object, meerdere objecten en kruisobjectbewegingsoverdracht, evenals complexe camerabewegingsoverdracht. Bovendien introduceren we MotionBench, de eerste dataset voor bewegingsoverdracht bestaande uit 200 bronvideo's en 1000 overgedragen bewegingen, die enkelvoudige/meervoudige objectoverdrachten en complexe camerabewegingen omvatten.
We presenteren een nieuw verschijningsmodel dat tegelijkertijd expliciete hoogwaardige 3D oppervlaktemesh reconstructie en fotorealistische synthese van nieuwe weergaven realiseert vanuit schaarse weergavemonsters. Ons belangrijkste idee is om de onderliggende scènegeometrie Mesh te modelleren als een Atlas van Kaarten die we renderen met 2D Gaussische surfels (MAtCha Gaussians). MAtCha destilleert hoogfrequente scène oppervlaktedetails uit een kant-en-klare monoculair diepteschatting en verfijnt dit door middel van Gaussische surfelrendering. De Gaussische surfels worden dynamisch aan de kaarten gekoppeld, waarbij wordt voldaan aan fotorealisme van neurale volumetrische rendering en scherpe geometrie van een meshmodel, oftewel twee ogenschijnlijk tegenstrijdige doelen in één model. In de kern van MAtCha ligt een nieuw neuronaal vervormingsmodel en een structuurverlies dat de fijne oppervlaktedetails behouden die zijn gedestilleerd uit geleerde monoculaire dieptes, terwijl hun fundamentele schaalambiguïteiten worden aangepakt. Resultaten van uitgebreide experimentele validatie tonen de state-of-the-art kwaliteit van oppervlakte reconstructie en fotorealisme van MAtCha aan, vergelijkbaar met topconcurrenten maar met een drastische vermindering van het aantal invoerweergaven en de benodigde rekentijd. We geloven dat MAtCha zal dienen als een fundamenteel instrument voor elke visuele toepassing in visie, grafische vormgeving en robotica die expliciete geometrie vereisen naast fotorealisme. Onze projectpagina is de volgende: https://anttwo.github.io/matcha/
Met de voortdurend toenemende volumes aan aardobservatiegegevens in de archieven van grote programma's zoals Copernicus, groeit de behoefte aan efficiënte vectorrepresentaties van de onderliggende ruwe data. De benadering van het extraheren van kenmerkrepresentaties uit vooraf getrainde diepe neurale netwerken is een krachtige methode die semantische abstracties van de invoerdata kan bieden. Echter, de manier waarop dit wordt gedaan voor beeldarchieven met geospatiale data is nog niet gedefinieerd. In dit werk wordt een uitbreiding voorgesteld van een bestaand gemeenschapsproject, Major TOM, gericht op het verstrekken en standaardiseren van open en gratis AI-gereed datasets voor aardobservatie. Bovendien worden vier wereldwijde en dichte inbeddingsdatasets openlijk en gratis vrijgegeven samen met de publicatie van dit manuscript, resulterend in de meest uitgebreide wereldwijde open dataset van geospatiale visuele inbeddingen wat betreft het gedekte aardoppervlak.
In het leren van robotische visuomotorbeleid hebben op diffusie gebaseerde modellen aanzienlijk succes geboekt bij het verbeteren van de nauwkeurigheid van actietrajectgeneratie in vergelijking met traditionele autoregressieve modellen. Ze kampen echter met inefficiëntie als gevolg van meerdere denoising-stappen en beperkte flexibiliteit door complexe beperkingen. In dit artikel introduceren we Coarse-to-Fine AutoRegressive Policy (CARP), een nieuw paradigma voor het leren van visuomotorbeleid dat het autoregressieve actiegeneratieproces opnieuw definieert als een grof-naar-fijn, volgende-schaalbenadering. CARP splitst actiegeneratie op in twee fasen: eerst leert een actie-auto-encoder multi-schaal representaties van de volledige actiesequentie; vervolgens verfijnt een transformer in GPT-stijl de sequentievoorspelling via een grof-naar-fijn autoregressief proces. Deze eenvoudige en intuïtieve benadering produceert zeer nauwkeurige en soepele acties, die overeenkomen met of zelfs de prestaties van op diffusie gebaseerde beleidslijnen overtreffen, terwijl de efficiëntie op het niveau blijft van autoregressieve beleidslijnen. We voeren uitgebreide evaluaties uit in diverse omgevingen, waaronder single-task en multi-task scenario's op op status gebaseerde en op afbeeldingen gebaseerde simulatiebenchmarks, evenals taken in de echte wereld. CARP behaalt concurrerende succespercentages, met een verbetering tot wel 10%, en levert 10x snellere inferentie in vergelijking met beleidslijnen van de laatste stand van zaken, waarbij een hoogwaardig, efficiënt en flexibel paradigma wordt vastgesteld voor actiegeneratie in robotische taken.
Wij stellen een onopvallend multi-bit tekstwatermerk voor dat wordt ingebed door parafraseren met LLM's. We finetunen een paar LLM-parafraseurs die zo zijn ontworpen dat ze zich verschillend gedragen, zodat het verschil in parafraseren dat wordt weerspiegeld in de tekstsemantiek kan worden geïdentificeerd door een getrainde decoder. Om ons multi-bit watermerk in te bedden, gebruiken we twee parafraseurs afwisselend om de vooraf gedefinieerde binaire code op zinsniveau te coderen. Vervolgens gebruiken we een tekstklassificeerder als decoder om elk bit van het watermerk te decoderen. Via uitgebreide experimenten tonen we aan dat onze watermerken meer dan 99,99\% detectie AUC kunnen bereiken met kleine (1,1B) tekstparafraseurs, terwijl de semantische informatie van de oorspronkelijke zin behouden blijft. Belangrijker nog is dat onze aanpak robuust is bij woordsubstitutie en zinsparafraseverstoringen en goed generaliseert naar out-of-distributionele gegevens. We tonen ook de onopvallendheid van ons watermerk met LLM-gebaseerde evaluatie. We stellen de code beschikbaar als open source: https://github.com/xiaojunxu/multi-bit-text-watermark.
Het samenvoegen van modellen heeft veelbelovende resultaten laten zien bij het combineren van expertmodellen, maar het voordeel van samenvoegen is onduidelijk bij het samenvoegen van "generalistische" modellen die zijn getraind op veel taken. We verkennen het samenvoegen in de context van grote (ongeveer 100 miljard) modellen door checkpoints te hergebruiken die compromissen vertonen tussen verschillende taken. Dergelijke checkpoints worden vaak gecreëerd in het proces van het ontwikkelen van een grensverleggend model, en veel suboptimale worden meestal verworpen. Gegeven een pool van modelcheckpoints verkregen uit verschillende trainingsruns (bijv. verschillende fasen, doelstellingen, hyperparameters en datamixen), die van nature compromissen laten zien tussen verschillende taalvaardigheden (bijv. instructieopvolging vs. codegeneratie), onderzoeken we of samenvoegen dergelijke suboptimale modellen kan hergebruiken tot een Pareto-optimaal model. Ons optimalisatiealgoritme stemt het gewicht van elk checkpoint af in een lineaire combinatie, resulterend in Pareto-optimale modellen die zowel individuele modellen als op samenvoeging gebaseerde baselines overtreffen. Verder onderzoek toont aan dat goede samenvoegingen meestal bijna alle checkpoints met niet-nul gewichten bevatten, wat aangeeft dat zelfs ogenschijnlijk slechte initiële checkpoints kunnen bijdragen aan goede uiteindelijke samenvoegingen.
Wij presenteren Turbo3D, een ultrasnel tekst-naar-3D-systeem dat in staat is om hoogwaardige Gaussian splatting-assets te genereren in minder dan één seconde. Turbo3D maakt gebruik van een snelle 4-stappen, 4-weergave diffusiegenerator en een efficiënte feedforward Gaussian-reconstructor, die beide opereren in latente ruimte. De 4-stappen, 4-weergave generator is een studentmodel gedistilleerd via een nieuw Dual-Teacher benadering, die de student aanmoedigt om weergaveconsistentie te leren van een multi-weergave leraar en fotorealisme van een enkele-weergave leraar. Door de invoer van de Gaussian reconstructor te verplaatsen van pixelruimte naar latente ruimte, elimineren we de extra beelddecoderingstijd en halveren we de lengte van de transformer-sequentie voor maximale efficiëntie. Onze methode toont superieure 3D-generatieresultaten in vergelijking met eerdere baselines, terwijl deze werkt in een fractie van hun looptijd.