ChatPaper.aiChatPaper

AInstein: Het beoordelen van de haalbaarheid van AI-gegenereerde benaderingen voor onderzoeksproblemen

AInstein: Assessing the Feasibility of AI-Generated Approaches to Research Problems

October 6, 2025
Auteurs: Shambhavi Mishra, Gaurav Sahu, Marco Pedersoli, Laurent Charlin, Jose Dolz, Christopher Pal
cs.AI

Samenvatting

Grote taalmodellen (LLMs) tonen indrukwekkende capaciteiten op een breed scala aan taken, maar het blijft onduidelijk of dit succes voortkomt uit echt redeneren of uit geavanceerd herinneren. We introduceren AInstein, een raamwerk om te testen of LLMs geldige oplossingen kunnen genereren voor AI-onderzoeksproblemen met alleen hun vooraf getrainde parametrische kennis — zonder domeinspecifieke fine-tuning, retrieval-augmentatie of andere externe hulpmiddelen. Onze aanpak destilleert probleemstellingen uit hoogwaardige ICLR 2025 inzendingen en laat gespecialiseerde oplossingsagenten technische oplossingen voorstellen en verfijnen via iteratieve kritiekloops, waarbij de cycli van voorstel, review en revisie die centraal staan in wetenschappelijk onderzoek worden nagebootst. We evalueren AInstein op 1.214 ICLR papers, gestratificeerd op acceptatieniveau (Oral, Spotlight, Poster), met behulp van een LLM-as-a-judge paradigma geleid door een gestructureerde rubric, aangevuld met gerichte handmatige controles. Prestaties worden beoordeeld met drie metrieken: Succespercentage (lost de oplossing het probleem op?), Herontdekking (komt het overeen met door mensen voorgestelde methoden?), en Originaliteit (levert het geldige, originele benaderingen op?). Onze resultaten laten zien dat hoewel LLMs haalbare oplossingen kunnen herontdekken en af en toe creatieve alternatieven kunnen voorstellen, hun probleemoplossend vermogen kwetsbaar blijft en sterk gevoelig is voor formulering. Deze bevindingen bieden het eerste grootschalige bewijs over de mate waarin LLMs als autonome wetenschappelijke probleemoplossers kunnen functioneren, waarbij zowel hun latente potentieel als hun huidige beperkingen worden belicht.
English
Large language models (LLMs) demonstrate impressive capabilities across a wide range of tasks, yet it remains unclear whether such success reflects genuine reasoning or sophisticated recall. We introduce AInstein, a framework for testing whether LLMs can generate valid solutions to AI research problems using only their pretrained parametric knowledge -- without domain-specific fine-tuning, retrieval augmentation, or other external aids. Our approach extracts distilled problem statements from high-quality ICLR 2025 submissions, then tasks specialized solver agents with proposing and refining technical solutions through iterative critique loops, mimicking the cycles of proposal, review, and revision central to scientific inquiry. We evaluate AInstein on 1,214 ICLR papers stratified by acceptance tier (Oral, Spotlight, Poster), using an LLM-as-a-judge paradigm guided by a structured rubric, complemented by targeted manual checks. Performance is assessed with three metrics: Success Rate (does the solution address the problem?), Rediscovery (does it align with human-proposed methods?), and Novelty (does it yield valid, original approaches?). Our results reveal that while LLMs can rediscover feasible solutions and occasionally propose creative alternatives, their problem-solving ability remains fragile and highly sensitive to framing. These findings provide the first large-scale evidence on the extent to which LLMs can act as autonomous scientific problem-solvers, highlighting both their latent potential and their current limitations.
PDF64October 8, 2025