Могут ли большие языковые модели исследовать контекст?Can large language models explore in-context?
Мы исследуем, насколько современные модели больших языков (LLM) могут заниматься исследованиями, являющимися ключевой способностью в обучении с подкреплением и принятии решений. Мы сосредотачиваемся на первоначальной производительности существующих LLM без вмешательства в обучение. Мы используем LLM в качестве агентов в простых средах многоруких бандитов, полностью определяя описание среды и историю взаимодействия в контексте, т.е. внутри подсказки LLM. Мы проводим эксперименты с GPT-3.5, GPT-4 и Llama2, используя различные дизайны подсказок, и обнаруживаем, что модели не надежно занимаются исследованиями без существенных вмешательств: i) Во всех наших экспериментах только одна конфигурация привела к удовлетворительному исследовательскому поведению: GPT-4 с цепочкой мыслей и внешне суммированной историей взаимодействия, представленной в виде достаточной статистики; ii) Все остальные конфигурации не привели к надежному исследовательскому поведению, включая те, у которых есть цепочка мыслей, но несуммированная история. Хотя эти результаты можно рассматривать положительно, они указывают на то, что внешняя суммаризация - что может быть невозможно в более сложных средах - важна для получения желаемого поведения от агентов LLM. Мы приходим к выводу, что для того чтобы дать возможность агентам, основанным на LLM, принимать решения в сложных средах, могут потребоваться нетривиальные алгоритмические вмешательства, такие как настройка или курирование набора данных.