TCDA: 대화형 감정 사중 분석을 위한 스레드 제약 담화 인식 모델링
TCDA: Thread-Constrained Discourse-Aware Modeling for Conversational Sentiment Quadruple Analysis
May 3, 2026
저자: Xinran Li, Xinze Che, Yifan Lyu, Zhiqi Huang, Xiujuan Xu
cs.AI
초록
대화형 관점 기반 감정 사중 분석(DiaASQ)은 다중 회차 대화에서 발생하는 복잡한 상호관계를 포착해야 합니다. 기존 방법론들은 일반적으로 단순한 그래프 합성곱 네트워크(GCN)를 사용하는데, 이는 구조적 노이즈를 도입하고 대화의 시간적 순서를 고려하지 못하거나, 표준 RoPE를 사용하여 평면적 시퀀스 내 상대적 거리를 암묵적으로 포착하지만 토큰 수준 구문 순서와 발화 수준 진행을 명확히 구분하지 못하며 거리 희석 문제가 발생할 수 있습니다. 이러한 문제점들을 해결하기 위해, 본 연구에서는 스레드 제약 기반 방향성 비순환 그래프(TC-DAG)와 담화 인식 회전 위치 임베딩(D-RoPE)을 결합한 새로운 프레임워크를 제안합니다. 구체적으로, TC-DAG는 스레드 제약을 기반으로 교차 스레드 노이즈를 필터링하고, 루트 앵커링을 통해 전역 연결성을 유지하며, 대화의 시간적 순서를 통합합니다. D-RoPE는 이중 스트림 투영과 다중 스케일 주파수 신호를 사용하여 다중 계층 의미를 정렬하고, 트리 형태 거리를 사용하여 스레드 의존성을 포착하며, 발화 수준 진행을 통합하여 토큰 수준 거리 희석 문제를 완화합니다. 두 벤치마크 데이터셋에 대한 실험 결과는 본 프레임워크가 최첨단 성능을 달성함을 입증합니다.
English
Conversational Aspect-based Sentiment Quadruple Analysis (DiaASQ) needs to capture the complex interrelationships in multiple rounds of dialogues. Existing methods usually employ simple Graph Convolutional Networks (GCN), which introduce structural noise and fail to consider the temporal sequence of the dialogues, or use standard RoPE, which implicitly captures relative distances in a flat sequence but cannot clearly separate the token-level syntactic order from the utterance-level progression, and may suffer from the Distance Dilution problem. To address these issues, we propose a new framework that combines Thread-Constrained Directed Acyclic Graph (TC-DAG) and Discourse-Aware Rotary Position Embedding (D-RoPE). Specifically, TC-DAG filters out cross-thread noise based on thread constraints, maintains global connectivity through root anchoring, and incorporates the temporal sequence of the dialogues. D-RoPE aligns multi-layer semantics using dual-stream projection and multi-scale frequency signals, captures thread dependencies using tree-like distances, and alleviates the token-level Distance Dilution problem by incorporating utterance-level progressions. Experimental results on two benchmark datasets demonstrate that our framework achieves state-of-the-art performance.