ChatPaper.aiChatPaper

Misurare la capacità dell'IA di completare attività complesse

Measuring AI Ability to Complete Long Tasks

March 18, 2025
Autori: Thomas Kwa, Ben West, Joel Becker, Amy Deng, Katharyn Garcia, Max Hasin, Sami Jawhar, Megan Kinniment, Nate Rush, Sydney Von Arx, Ryan Bloom, Thomas Broadley, Haoxing Du, Brian Goodrich, Nikola Jurkovic, Luke Harold Miles, Seraphina Nix, Tao Lin, Neev Parikh, David Rein, Lucas Jun Koba Sato, Hjalmar Wijk, Daniel M. Ziegler, Elizabeth Barnes, Lawrence Chan
cs.AI

Abstract

Nonostante i rapidi progressi nei benchmark di intelligenza artificiale, il significato reale delle prestazioni nei benchmark rimane poco chiaro. Per quantificare le capacità dei sistemi di IA in termini di capacità umane, proponiamo una nuova metrica: l'orizzonte temporale di completamento del 50% delle attività. Questo rappresenta il tempo che gli esseri umani impiegano tipicamente per completare compiti che i modelli di IA possono eseguire con un tasso di successo del 50%. Abbiamo inizialmente cronometrato esseri umani con competenze specifiche del dominio su una combinazione di RE-Bench, HCAST e 66 nuovi compiti più brevi. Su questi compiti, i modelli di IA all'avanguardia attuali, come Claude 3.7 Sonnet, hanno un orizzonte temporale del 50% di circa 50 minuti. Inoltre, l'orizzonte temporale delle IA all'avanguardia è raddoppiato approssimativamente ogni sette mesi dal 2019, sebbene la tendenza possa essersi accelerata nel 2024. L'aumento degli orizzonti temporali dei modelli di IA sembra essere principalmente guidato da una maggiore affidabilità e capacità di adattarsi agli errori, combinata con migliori capacità di ragionamento logico e utilizzo di strumenti. Discutiamo i limiti dei nostri risultati, incluso il loro grado di validità esterna, e le implicazioni dell'aumentata autonomia per capacità pericolose. Se questi risultati si generalizzano ai compiti software del mondo reale, l'estrapolazione di questa tendenza prevede che entro 5 anni i sistemi di IA saranno in grado di automatizzare molti compiti software che attualmente richiedono un mese agli esseri umani.
English
Despite rapid progress on AI benchmarks, the real-world meaning of benchmark performance remains unclear. To quantify the capabilities of AI systems in terms of human capabilities, we propose a new metric: 50%-task-completion time horizon. This is the time humans typically take to complete tasks that AI models can complete with 50% success rate. We first timed humans with relevant domain expertise on a combination of RE-Bench, HCAST, and 66 novel shorter tasks. On these tasks, current frontier AI models such as Claude 3.7 Sonnet have a 50% time horizon of around 50 minutes. Furthermore, frontier AI time horizon has been doubling approximately every seven months since 2019, though the trend may have accelerated in 2024. The increase in AI models' time horizons seems to be primarily driven by greater reliability and ability to adapt to mistakes, combined with better logical reasoning and tool use capabilities. We discuss the limitations of our results -- including their degree of external validity -- and the implications of increased autonomy for dangerous capabilities. If these results generalize to real-world software tasks, extrapolation of this trend predicts that within 5 years, AI systems will be capable of automating many software tasks that currently take humans a month.
PDF112March 19, 2025