ChatPaper.aiChatPaper

Анализ аннотаций и выводов с использованием ИИ: выявление необоснованных утверждений и неоднозначных местоимений

Ai-Facilitated Analysis of Abstracts and Conclusions: Flagging Unsubstantiated Claims and Ambiguous Pronouns

June 16, 2025
Авторы: Evgeny Markhasin
cs.AI

Аннотация

Мы представляем и оцениваем набор концептуальных (PoC) структурированных рабочих запросов, разработанных для стимулирования иерархического рассуждения, подобного человеческому, при направлении крупных языковых моделей (LLM) на выполнение высокоуровневого семантического и лингвистического анализа научных рукописей. Эти запросы нацелены на две нетривиальные аналитические задачи: выявление необоснованных утверждений в резюме (информационная целостность) и маркировку неоднозначных ссылок на местоимения (лингвистическая ясность). Мы провели систематическую многоэтапную оценку на двух передовых моделях (Gemini Pro 2.5 Pro и ChatGPT Plus o3) в различных контекстных условиях. Наши результаты для задачи информационной целостности выявили значительное расхождение в производительности моделей: хотя обе модели успешно идентифицировали необоснованное ядро именной группы (95% успеха), ChatGPT неизменно терпел неудачу (0% успеха) в выявлении необоснованного адъективного модификатора, который Gemini корректно отметил (95% успеха), что ставит вопрос о потенциальном влиянии синтаксической роли цели. В задаче лингвистического анализа обе модели показали хорошие результаты (80-90% успеха) при наличии полного контекста рукописи. Однако в условиях работы только с резюме ChatGPT достиг идеального результата (100% успеха), в то время как производительность Gemini значительно снизилась. Наши результаты свидетельствуют о том, что структурированные запросы являются жизнеспособной методологией для сложного текстового анализа, но показывают, что эффективность запросов может сильно зависеть от взаимодействия между моделью, типом задачи и контекстом, подчеркивая необходимость тщательного тестирования, специфичного для каждой модели.
English
We present and evaluate a suite of proof-of-concept (PoC), structured workflow prompts designed to elicit human-like hierarchical reasoning while guiding Large Language Models (LLMs) in high-level semantic and linguistic analysis of scholarly manuscripts. The prompts target two non-trivial analytical tasks: identifying unsubstantiated claims in summaries (informational integrity) and flagging ambiguous pronoun references (linguistic clarity). We conducted a systematic, multi-run evaluation on two frontier models (Gemini Pro 2.5 Pro and ChatGPT Plus o3) under varied context conditions. Our results for the informational integrity task reveal a significant divergence in model performance: while both models successfully identified an unsubstantiated head of a noun phrase (95% success), ChatGPT consistently failed (0% success) to identify an unsubstantiated adjectival modifier that Gemini correctly flagged (95% success), raising a question regarding potential influence of the target's syntactic role. For the linguistic analysis task, both models performed well (80-90% success) with full manuscript context. In a summary-only setting, however, ChatGPT achieved a perfect (100%) success rate, while Gemini's performance was substantially degraded. Our findings suggest that structured prompting is a viable methodology for complex textual analysis but show that prompt performance may be highly dependent on the interplay between the model, task type, and context, highlighting the need for rigorous, model-specific testing.
PDF02June 17, 2025