ChatPaper.aiChatPaper

Sobre a Avaliação Não Interativa de Tradutores de Comunicação Animal

On Non-interactive Evaluation of Animal Communication Translators

October 17, 2025
Autores: Orr Paradise, David F. Gruber, Adam Tauman Kalai
cs.AI

Resumo

Se você tivesse um tradutor de Baleia-Inglês baseado em IA, como poderia validar se ele está funcionando ou não? Seria necessário interagir com os animais ou depender de observações fundamentadas, como a temperatura? Apresentamos evidências teóricas e experimentais de prova de conceito que sugerem que a interação e até mesmo as observações podem não ser necessárias para idiomas suficientemente complexos. Pode ser possível avaliar tradutores apenas com base em suas saídas em inglês, oferecendo vantagens potenciais em termos de segurança, ética e custo. Este é um exemplo de avaliação de qualidade de tradução automática (MTQE, do inglês *Machine Translation Quality Evaluation*) sem qualquer tradução de referência disponível. Um desafio crucial é identificar "alucinações", traduções falsas que podem parecer fluentes e plausíveis. Propomos o uso de tradução segmento por segmento em conjunto com o clássico teste de embaralhamento de NLP para avaliar tradutores. A ideia é traduzir a comunicação animal, turno por turno, e avaliar com que frequência as traduções resultantes fazem mais sentido em ordem do que permutadas. Experimentos de prova de conceito em idiomas humanos com escassez de dados e idiomas construídos demonstram a utilidade potencial dessa metodologia de avaliação. Esses experimentos com idiomas humanos servem apenas para validar nossa métrica sem referência sob escassez de dados. Descobriu-se que ela se correlaciona altamente com uma avaliação padrão baseada em traduções de referência, que estão disponíveis em nossos experimentos. Também realizamos uma análise teórica sugerindo que a interação pode não ser necessária nem eficiente nos estágios iniciais de aprendizado de tradução.
English
If you had an AI Whale-to-English translator, how could you validate whether or not it is working? Does one need to interact with the animals or rely on grounded observations such as temperature? We provide theoretical and proof-of-concept experimental evidence suggesting that interaction and even observations may not be necessary for sufficiently complex languages. One may be able to evaluate translators solely by their English outputs, offering potential advantages in terms of safety, ethics, and cost. This is an instance of machine translation quality evaluation (MTQE) without any reference translations available. A key challenge is identifying ``hallucinations,'' false translations which may appear fluent and plausible. We propose using segment-by-segment translation together with the classic NLP shuffle test to evaluate translators. The idea is to translate animal communication, turn by turn, and evaluate how often the resulting translations make more sense in order than permuted. Proof-of-concept experiments on data-scarce human languages and constructed languages demonstrate the potential utility of this evaluation methodology. These human-language experiments serve solely to validate our reference-free metric under data scarcity. It is found to correlate highly with a standard evaluation based on reference translations, which are available in our experiments. We also perform a theoretical analysis suggesting that interaction may not be necessary nor efficient in the early stages of learning to translate.
PDF22October 21, 2025