Misurare la capacità dell'IA di completare attività complesse
Measuring AI Ability to Complete Long Tasks
March 18, 2025
Autori: Thomas Kwa, Ben West, Joel Becker, Amy Deng, Katharyn Garcia, Max Hasin, Sami Jawhar, Megan Kinniment, Nate Rush, Sydney Von Arx, Ryan Bloom, Thomas Broadley, Haoxing Du, Brian Goodrich, Nikola Jurkovic, Luke Harold Miles, Seraphina Nix, Tao Lin, Neev Parikh, David Rein, Lucas Jun Koba Sato, Hjalmar Wijk, Daniel M. Ziegler, Elizabeth Barnes, Lawrence Chan
cs.AI
Abstract
Nonostante i rapidi progressi nei benchmark di intelligenza artificiale, il significato reale delle prestazioni nei benchmark rimane poco chiaro. Per quantificare le capacità dei sistemi di IA in termini di capacità umane, proponiamo una nuova metrica: l'orizzonte temporale di completamento del 50% delle attività. Questo rappresenta il tempo che gli esseri umani impiegano tipicamente per completare compiti che i modelli di IA possono eseguire con un tasso di successo del 50%. Abbiamo inizialmente cronometrato esseri umani con competenze specifiche del dominio su una combinazione di RE-Bench, HCAST e 66 nuovi compiti più brevi. Su questi compiti, i modelli di IA all'avanguardia attuali, come Claude 3.7 Sonnet, hanno un orizzonte temporale del 50% di circa 50 minuti. Inoltre, l'orizzonte temporale delle IA all'avanguardia è raddoppiato approssimativamente ogni sette mesi dal 2019, sebbene la tendenza possa essersi accelerata nel 2024. L'aumento degli orizzonti temporali dei modelli di IA sembra essere principalmente guidato da una maggiore affidabilità e capacità di adattarsi agli errori, combinata con migliori capacità di ragionamento logico e utilizzo di strumenti. Discutiamo i limiti dei nostri risultati, incluso il loro grado di validità esterna, e le implicazioni dell'aumentata autonomia per capacità pericolose. Se questi risultati si generalizzano ai compiti software del mondo reale, l'estrapolazione di questa tendenza prevede che entro 5 anni i sistemi di IA saranno in grado di automatizzare molti compiti software che attualmente richiedono un mese agli esseri umani.
English
Despite rapid progress on AI benchmarks, the real-world meaning of benchmark
performance remains unclear. To quantify the capabilities of AI systems in
terms of human capabilities, we propose a new metric: 50%-task-completion time
horizon. This is the time humans typically take to complete tasks that AI
models can complete with 50% success rate. We first timed humans with relevant
domain expertise on a combination of RE-Bench, HCAST, and 66 novel shorter
tasks. On these tasks, current frontier AI models such as Claude 3.7 Sonnet
have a 50% time horizon of around 50 minutes. Furthermore, frontier AI time
horizon has been doubling approximately every seven months since 2019, though
the trend may have accelerated in 2024. The increase in AI models' time
horizons seems to be primarily driven by greater reliability and ability to
adapt to mistakes, combined with better logical reasoning and tool use
capabilities. We discuss the limitations of our results -- including their
degree of external validity -- and the implications of increased autonomy for
dangerous capabilities. If these results generalize to real-world software
tasks, extrapolation of this trend predicts that within 5 years, AI systems
will be capable of automating many software tasks that currently take humans a
month.