ChatPaper.aiChatPaper

PhiloBERTA: ギリシャ語とラテン語の語彙に対するトランスフォーマーベースの多言語分析

PhiloBERTA: A Transformer-Based Cross-Lingual Analysis of Greek and Latin Lexicons

March 7, 2025
著者: Rumi A. Allbert, Makai L. Allbert
cs.AI

要旨

我々は、古代ギリシャ語とラテン語の語彙間の意味的関係を測定する多言語トランスフォーマーモデル「PhiloBERTA」を提案する。古典テキストから選ばれた語彙ペアを分析し、文脈埋め込みと角度類似度メトリクスを用いて、正確な意味的対応を特定する。結果として、語源的に関連するペア、特にepist\=em\=e(scientia)やdikaiosyn\=e(iustitia)といった抽象的な哲学的概念において、有意に高い類似度スコアを示すことが明らかになった。統計分析により、これらの関係に一貫したパターンが確認され(p = 0.012)、語源的に関連するペアは対照ペアと比べて著しく安定した意味的保存を示すことがわかった。これらの発見は、哲学的概念がギリシャとラテン伝統の間でどのように移動したかを検証するための定量的枠組みを確立し、古典文献学研究に新たな手法を提供するものである。
English
We present PhiloBERTA, a cross-lingual transformer model that measures semantic relationships between ancient Greek and Latin lexicons. Through analysis of selected term pairs from classical texts, we use contextual embeddings and angular similarity metrics to identify precise semantic alignments. Our results show that etymologically related pairs demonstrate significantly higher similarity scores, particularly for abstract philosophical concepts such as epist\=em\=e (scientia) and dikaiosyn\=e (iustitia). Statistical analysis reveals consistent patterns in these relationships (p = 0.012), with etymologically related pairs showing remarkably stable semantic preservation compared to control pairs. These findings establish a quantitative framework for examining how philosophical concepts moved between Greek and Latin traditions, offering new methods for classical philological research.

Summary

AI-Generated Summary

PDF22March 11, 2025