번역이 포함된 일일 선별된 AI 연구 논문
본 논문은 UCFE: 사용자 중심 금융 전문성 벤치마크를 소개합니다. 이 혁신적인 프레임워크는 대형 언어 모델(Large Language Models, LLMs)의 복잡한 실제 금융 작업 처리 능력을 평가하기 위해 설계되었습니다. UCFE 벤치마크는 인간 전문가 평가를 결합하고 동적하며 작업 특정 상호작용을 사용하여 진화하는 금융 시나리오의 복잡성을 시뮬레이트하는 하이브리드 접근 방식을 채택합니다. 우선, 804명의 참가자를 대상으로 사용자 연구를 실시하여 그들의 금융 작업에 대한 피드백을 수집했습니다. 둘째, 이 피드백을 기반으로 다양한 사용자 의도와 상호작용을 포괄하는 데이터셋을 작성했습니다. 이 데이터셋은 LLM을 판사로 사용하는 방법을 사용하여 12개의 LLM 서비스를 벤치마킹하는 기반 자료로 사용되었습니다. 결과는 벤치마크 점수와 인간 선호도 간에 상당한 일치를 보여주며, Pearson 상관 계수가 0.78인 것으로 나타났으며, UCFE 데이터셋과 평가 접근 방식의 효과를 확인했습니다. UCFE 벤치마크는 금융 분야에서 LLM의 잠재력을 드러내는 데 그치지 않고, 그들의 성능과 사용자 만족도를 평가하기 위한 견고한 프레임워크를 제공합니다. 벤치마크 데이터셋과 평가 코드는 제공됩니다.
최근 대형 언어 모델(LLM)은 자율 에이전트를 구축하는 데 많은 관심을 받았습니다. 그러나 현재의 LLM 기반 웹 에이전트의 성능은 장기적인 과제에서 최적이 아니며 종종 환불이 불가능한 항공권을 반복 구매하는 등의 오류를 일으킵니다. 반면 인간은 이러한 돌이킬 수 없는 실수를 피할 수 있습니다. 왜냐하면 우리는 행동의 잠재적 결과(예: 돈을 잃는 것)를 인식하는 "세계 모델"을 갖고 있기 때문입니다. 이에 동기부여를 받아, 우리의 연구는 먼저 현재의 LLM(예: GPT-4o, Claude-3.5-Sonnet 등)에서 세계 모델의 부재를 확인하는 예비 분석으로 시작합니다. 그런 다음, 행동의 결과를 시뮬레이션하여 더 나은 의사 결정을 내리기 위한 세계 모델 보강(WMA) 웹 에이전트를 제시합니다. 다음 관측을 예측하는 세계 모델로 LLM을 훈련하는 데 어려움을 극복하기 위해, 관측 간 반복 요소 및 긴 HTML 입력과 같은 도전을 극복하기 위해, 시간 단계 간 중요한 상태 차이를 강조하는 자유 형식의 자연어 설명에 중점을 둔 전이 중심 관측 추상화를 제안합니다. WebArena 및 Mind2Web에서의 실험 결과, 우리의 세계 모델이 에이전트의 정책 선택을 개선하고 최근의 트리 탐색 기반 에이전트와 비교하여 에이전트의 비용 및 시간 효율성을 입증합니다.
비전-언어 모델(VLMs)은 최근 복잡한 시각-언어적 추론을 평가하는 시각-질의-응답(VQA) 벤치마크에서 상당한 진전을 이루었습니다. 그러나 이러한 모델이 실제로 효과적인가요? 본 연구에서는 VLMs가 여전히 인간이 쉽게 대답할 수 있는 자연 이미지와 질문에서 어려움을 겪는 것을 보여줍니다. 이를 자연 적대적 샘플이라고 부릅니다. 또한 CLIP 및 ChatGPT와 같은 외부 모델을 사용하여 자연 이미지-텍스트 말뭉치에서 이러한 VQA 샘플을 생성하는 것이 놀랍게도 쉽다는 것을 발견했습니다. 우리는 1만 개의 인간 확인된 VQA 샘플로 VLMs를 신뢰성 있게 평가하기 위한 새로운 NaturalBench 벤치마크를 수집하기 위한 반자동화된 접근 방식을 제안합니다. 중요한 것은 각 질문을 서로 다른 답변을 내놓는 두 이미지와 짝지어 시각 중심적 설계를 채택하여, 이미지를 사용하지 않고 눈가리고 답하는 솔루션을 방지합니다. 이로써 NaturalBench는 공통 감각 사전을 사용하여 해결할 수 있는 이전 벤치마크보다 더 어려워집니다. 우리는 LLaVA-OneVision, Cambrian-1, Llama3.2-Vision, Molmo, Qwen2-VL 및 심지어 GPT-4o와 같은 53개의 최첨단 VLMs를 NaturalBench에서 평가하여, 이 모델들이 인간 성능(90% 이상)의 50%~70%를 뒤쳐진다는 것을 보여줍니다. NaturalBench가 왜 어려운지에 대해 두 가지 측면에서 분석합니다: (1) 합성성: NaturalBench를 해결하기 위해서는 속성 바인딩, 객체 관계, 논리 및 계산과 같은 다양한 시각-언어적 기술이 필요합니다. 이를 위해 각 NaturalBench 샘플에 1에서 8개의 기술 태그를 부여하여 세밀하게 평가합니다. (2) 편향: NaturalBench는 VLMs의 심각한 편향을 드러냅니다. 모델들은 종종 이미지와 관계없이 동일한 답변을 선택합니다. 마지막으로, 우리는 100단어 이상의 긴 캡션 및 중국어, 힌디어와 같은 비영어 언어를 포함한 다양한 데이터 소스에 우리의 벤치마크 선별 방법을 적용하여, VLMs의 동적 평가에 대한 잠재력을 강조합니다.
텍스트-이미지(T2I) 확산 모델의 최근 발전으로 텍스트 프롬프트에서 고품질 이미지를 생성할 수 있게 되었지만, 여전히 특정 시각적 개념에 대한 정확한 제어가 어려운 문제가 남아 있습니다. 기존 방법론은 참조 이미지로부터 학습하여 주어진 개념을 복제할 수 있지만, 그 개념 내 개별 구성 요소의 세밀한 사용자 정의에는 유연성이 부족합니다. 본 논문에서는 구성 요소 제어 가능한 개인화라는 새로운 작업을 소개하여 시각적 개념을 개인화할 때 특정 구성 요소를 재구성할 수 있도록 하는 T2I 모델의 한계를 늘리고자 합니다. 이 작업은 주로 두 가지 주요 장애물 때문에 특히 어려운데, 바로 의미 오염과 의미 불균형입니다. 의미 오염은 원치 않는 시각적 요소가 개인화된 개념을 손상시키는 반면, 의미 불균형은 개념과 구성 요소의 불균형한 학습을 초래합니다. 이러한 도전에 대처하기 위해 MagicTailor라는 혁신적인 프레임워크를 설계했습니다. 이 프레임워크는 원치 않는 시각적 의미를 동적으로 왜곡시키기 위한 Dynamic Masked Degradation(DM-Deg)을 활용하고, 원하는 시각적 의미에 대한 균형 잡힌 학습 패러다임을 수립하기 위한 Dual-Stream Balancing(DS-Bal)을 활용합니다. 방대한 비교, 제거 및 분석을 통해 MagicTailor가 이 어려운 작업에서 우수한 성과를 거두는데 더불어 실용적인 응용 프로그램에 상당한 잠재력을 가지고 있음을 입증하며, 보다 섬세하고 창의적인 이미지 생성을 위한 길을 열어주고 있음을 보여줍니다.
현대 대형 언어 모델(Large Language Models, LLMs)의 중심에는 주의(Attention)가 있다. 그러나 이차 복잡도는 특히 긴 문맥 창을 갖는 LLMs의 효율성과 확장성을 제한한다. 이 제한을 해결하는 유망한 접근 방식은 주의의 희소성을 활용하는 것이다. 그러나 기존의 희소성 기반 솔루션은 주로 사전 정의된 패턴이나 휴리스틱을 사용하여 희소성을 근사한다. 이러한 방법은 언어 기반 작업에서 주의의 희소성의 동적 성질을 완전히 포착하지 못한다. 본 논문은 주의의 희소성을 사전 정의하는 대신 학습되어야 한다고 주장한다. 이를 위해 우리는 SeerAttention이라는 새로운 주의 메커니즘을 설계했다. 이 메커니즘은 학습 가능한 게이트를 사용하여 기존 주의에 적응적으로 중요한 블록을 선택하고 나머지 블록을 희소하다고 판단한다. 이러한 블록 수준의 희소성은 정확도와 가속을 효과적으로 균형있게 유지한다. 게이트 네트워크를 효율적으로 학습하기 위해 우리는 주의 맵의 블록 수준 ground truth를 최소한의 오버헤드로 추출하는 사용자 정의 FlashAttention 구현을 개발했다. SeerAttention은 사후 훈련에만 적용되는 것이 아니라 긴 문맥의 세밀한 튜닝에서도 뛰어난 성과를 보여준다. 결과는 사후 훈련 단계에서 SeerAttention이 최첨단 정적 또는 휴리스틱 기반 희소 주의 방법보다 획기적으로 우수하며, 다양한 문맥 길이와 희소 비율에 적응하는 데 더욱 다재다능하고 유연하다는 것을 보여준다. YaRN을 사용한 긴 문맥 세밀 튜닝에 적용할 때, SeerAttention은 최소의 편의 손실로 32k 문맥 길이에서 놀라운 90%의 희소 비율을 달성할 수 있으며, FlashAttention-2보다 5.67배의 가속을 제공한다.
자연은 무한한 해상도를 가지고 있습니다. 이 현실 속에서 기존의 확산 모델인 확산 트랜스포머와 같은 모델은 종종 훈련된 도메인을 벗어나는 이미지 해상도를 처리할 때 어려움을 겪습니다. 이 한계를 극복하기 위해 이미지를 고정 해상도 그리드로 인식하는 전통적인 방법이 아닌 동적 크기의 토큰 시퀀스로 개념화하여 이미지를 다룹니다. 이 관점은 훈련 및 추론 중에 다양한 종횡비를 유연하게 수용할 수 있는 훈련 전략을 제공하여 해상도 일반화를 촉진하고 이미지 자르기로 인한 편향을 제거합니다. 이를 기반으로, 제한 없는 해상도와 종횡비로 이미지를 생성하기 위해 특별히 설계된 트랜스포머 아키텍처인 유연 비전 트랜스포머(FiT)를 제안합니다. 우리는 쿼리-키 벡터 정규화, AdaLN-LoRA 모듈, 교정된 플로우 스케줄러, 로짓-정규 샘플러를 포함한 여러 혁신적인 설계를 통해 FiT를 FiTv2로 업그레이드합니다. 정교하게 조정된 네트워크 구조에 의해 강화된 FiTv2는 FiT의 수렴 속도의 2배를 보여줍니다. 고급 훈련 없는 외삽 기술을 통합할 때, FiTv2는 해상도 외삽과 다양한 해상도 생성 모두에서 놀라운 적응성을 보여줍니다. 또한, FiTv2 모델의 확장성 탐색을 통해 더 큰 모델이 더 나은 계산 효율성을 보인다는 것을 밝혀냅니다. 더불어, 미리 훈련된 모델을 고해상도 생성에 적응시키기 위한 효율적인 후훈련 전략을 소개합니다. 포괄적인 실험을 통해 FiTv2의 우수한 성능을 다양한 해상도 범위에서 입증했습니다. 임의 해상도 이미지 생성을 위해 확산 트랜스포머 모델을 탐구하기 위해 모든 코드와 모델을 https://github.com/whlzy/FiT 에 공개했습니다.
단백질은 아미노산 서열에 의해 정의되는 필수 대형 분자로, 이는 모든 생물체에서의 기능을 결정하는 삼차원 구조를 결정합니다. 따라서 생성적 단백질 모델링은 서열과 구조를 동시에 모델링하고 이해하며 생성하기 위해 다중 모달 접근이 필요합니다. 그러나 기존 방법은 일반적으로 각 모달리티에 대해 별도의 모델을 사용하여 서열과 구조 간 복잡한 관계를 포착하는 능력을 제한합니다. 이로 인해 서열과 구조를 동시에 이해하고 생성하는 작업에서 최적의 성능을 발휘하지 못하는 결과를 초래합니다. 본 논문에서는 DPLM-2를 소개합니다. 이는 서열과 구조를 수용하기 위해 이산 확산 단백질 언어 모델(DPLM)을 확장한 다중 모달 단백질 기초 모델입니다. 언어 모델과 구조적 학습을 가능하게 하기 위해 3D 좌표는 룩업 없는 양자화 기반 토크나이저를 사용하여 이산 토큰으로 변환됩니다. 실험적 및 고품질 합성 구조에 대해 교육함으로써 DPLM-2는 서열과 구조의 결합 분포뿐만 아니라 그 마진 및 조건부를 학습합니다. 또한 대규모 진화 데이터와 사전 훈련된 서열 기반 단백질 언어 모델로부터의 구조적 귀납 편향 사이의 연결을 활용하기 위한 효율적인 웜업 전략을 구현합니다. 경험적 평가 결과, DPLM-2는 두 단계 생성 접근 방식이 필요 없이 매우 호환되는 아미노산 서열과 해당 3D 구조를 동시에 생성할 수 있음을 보여줍니다. 게다가 DPLM-2는 접이, 역접이 및 다중 모달 모티프 입력을 사용한 고정방식과 같은 다양한 조건부 생성 작업에서 경쟁력 있는 성능을 보여주며, 예측 작업을 위한 구조 인식 표현을 제공합니다.
GPT-4o는 모든 것을 아우르는 모델로, 대규모 다중 모달 언어 모델 개발의 새로운 이정표를 나타냅니다. 시각적, 청각적, 텍스트적 모달리티를 이해하고, 오디오를 직접 출력하며 유연한 이중 상호작용을 지원할 수 있습니다. 오픈 소스 커뮤니티의 모델들은 종종 GPT-4o의 일부 기능을 달성하는데 성공했습니다. 그러나 모든 모달리티를 통합한 통합 모델을 훈련하는 것은 다중 모달 데이터의 복잡성, 복잡한 모델 아키텍처 및 훈련 과정 때문에 어렵습니다. 본 논문에서는 Mini-Omni2를 소개합니다. 이는 실시간으로 비전 및 오디오 쿼리에 대한 엔드-투-엔드 음성 응답을 제공할 수 있는 시각-오디오 어시스턴트입니다. 사전 훈련된 시각 및 청각 인코더를 통합하여 Mini-Omni2는 개별 모달리티에서 성능을 유지합니다. 우리는 모달리티를 조정하기 위한 세 단계의 훈련 과정을 제안하여, 제한된 데이터셋에서 훈련 후 다중 모달 입력 및 출력을 처리할 수 있는 언어 모델을 구축합니다. 상호작용을 위해 사용자와 더 유연하게 상호작용할 수 있도록 명령 기반 중단 메커니즘을 도입합니다. 우리의 지식으로는 Mini-Omni2가 GPT-4o의 가장 가까운 재현 중 하나이며, 유사한 형태의 기능을 갖추고 있으며, 이후 연구에 유용한 통찰을 제공할 수 있기를 희망합니다.
우리는 Hybrid Autoregressive Transformer (HART)을 소개합니다. 이는 1024x1024 이미지를 직접 생성할 수 있는 AR(자기회귀) 시각 생성 모델로, 이미지 생성 품질에서 확산 모델과 경쟁합니다. 기존의 AR 모델은 이산 토크나이저의 이미지 재구성 품질이 낮고 1024px 이미지 생성에 따른 훈련 비용이 방해 요소로 작용하는 한계에 직면합니다. 이러한 도전에 대응하기 위해, 우리는 하이브리드 토크나이저를 제안합니다. 이는 오토인코더로부터 연속적인 잠재 변수를 두 부분으로 분해합니다. 전체적인 이미지를 나타내는 이산 토큰과 이산 토큰으로 표현할 수 없는 잔여 구성 요소를 나타내는 연속 토큰입니다. 이산 구성 요소는 확장 가능한 해상도의 이산 AR 모델에 의해 모델링되고, 연속 구성 요소는 37M 매개변수만으로 가벼운 잔여 확산 모듈로 학습됩니다. 이산만을 사용하는 VAR 토크나이저와 비교했을 때, 우리의 하이브리드 접근법은 MJHQ-30K에서 재구성 FID를 2.11에서 0.30으로 개선시켰으며, 생성 FID를 7.85에서 5.38로 31% 향상시켰습니다. HART는 FID와 CLIP 점수에서 최첨단 확산 모델을 능가하며, 처리량은 4.5-7.7배 높고 MACs는 6.9-13.4배 낮습니다. 우리의 코드는 https://github.com/mit-han-lab/hart에서 오픈 소스로 제공됩니다.
저품질 또는 부족한 데이터는 딥 신경망을 훈련하는 데 중대한 어려움을 일으켰습니다. 고전적인 데이터 증강은 매우 다른 새로운 데이터를 기여할 수 없지만, 확산 모델은 텍스트 안내 프롬프트를 통해 고품질이고 다양한 합성 데이터를 생성하여 자가 진화하는 AI를 구축하는 새로운 가능성을 엽니다. 그러나 텍스트만으로는 합성 이미지의 원본 이미지와의 근접성을 제어할 수 없어 모델 성능에 해로운 분포 밖 데이터를 초래할 수 있습니다. 이 제한을 극복하기 위해 우리는 이미지 안내를 연구하여 합성과 실제 이미지 사이의 스펙트럼을 달성합니다. 더 강력한 이미지 안내로 생성된 이미지는 훈련 데이터와 유사하지만 학습이 어렵습니다. 반면에 보다 약한 이미지 안내로는 합성 이미지가 모델에게 더 쉽지만 원본 데이터와의 분포 간격이 커집니다. 생성된 전체 데이터 스펙트럼을 통해 우리는 새로운 "확산 커리큘럼 (DisCL)"을 구축할 수 있습니다. DisCL은 각 훈련 단계에서 이미지 합성의 이미지 안내 수준을 조정합니다: 모델에게 어려운 샘플을 식별하고 집중시키며 어려운 데이터 학습을 개선하기 위해 합성 이미지의 가장 효과적인 안내 수준을 평가합니다. 우리는 DisCL을 두 가지 어려운 작업에 적용합니다: long-tail (LT) 분류 및 저품질 데이터로부터의 학습. 이는 다양성이나 품질이 부족할 수 있는 높은 품질의 낮은 안내 이미지를 학습하여 높은 안내 이미지를 학습하는 웜업으로 대표적인 특징을 학습합니다. 광범위한 실험을 통해 iWildCam 데이터셋에 DisCL을 적용할 때 OOD 및 ID 매크로 정확도가 각각 2.7% 및 2.1% 향상되었습니다. ImageNet-LT에서 DisCL은 기본 모델의 tail-class 정확도를 4.4%에서 23.64%로 향상시키고 전체 클래스 정확도를 4.02% 향상시켰습니다.
자가회귀 대형 언어 모델(LLM)의 신속한 발전은 생성된 텍스트의 품질을 크게 향상시켰으며, 신뢰할 수 있는 기계 생성 텍스트 탐지기가 필요하게 되었습니다. 수많은 탐지기와 AI 단편들이 등장했으며, 몇 가지 탐지 방법은 이러한 단편들에서 대상 메트릭에 따라 99.9%까지 인식 품질을 보여주었습니다. 그러나 이러한 탐지기의 품질은 실제 환경에서 급격히 떨어지는 경향이 있어, 탐지기가 실제로 매우 신뢰할 수 있는지 아니면 그들의 높은 벤치마크 점수가 평가 데이터셋의 저 품질에서 오는 것인지 의문이 제기됩니다. 본 논문에서는 미래 모델의 편향과 낮은 일반화 능력에 대비하여 안전한 생성된 데이터를 평가하기 위한 견고하고 질 높은 방법의 필요성을 강조합니다. 우리는 AI 생성 콘텐츠 탐지에 전념한 대회에서의 데이터셋을 체계적으로 검토하고 AI 단편을 포함하는 데이터셋의 품질을 평가하는 방법을 제안합니다. 더불어, 훈련 모델의 향상과 훈련 데이터셋 자체의 향상을 위해 고품질 생성 데이터를 활용할 가능성에 대해 논의합니다. 우리의 공헌은 인간과 기계 텍스트 간의 동적을 더 잘 이해하고, 궁극적으로 점점 자동화되는 세계에서 정보의 무결성을 지원하는 데 목적이 있습니다.
토킹 헤드 생성은 단일 초상화와 음성 오디오 클립으로부터 생생하고 현실적인 토킹 헤드 비디오를 생성하는 것을 의도합니다. 확산 기반 토킹 헤드 생성에서 상당한 진전이 이루어졌지만, 거의 모든 방법이 현재 생성 단계를 넘어 제한된 문맥 활용, 오류 누적 및 느린 생성 속도로 인한 자기회귀 전략에 의존합니다. 이러한 도전에 대처하기 위해, 우리는 DAWN (비자기회귀 확산을 사용하는 동적 프레임 아바타)을 제시합니다. 이는 동적 길이 비디오 시퀀스의 일괄 생성을 가능하게 하는 프레임워크로, 주로 두 가지 주요 구성 요소로 구성됩니다: (1) 잠재 모션 공간에서의 오디오 주도적 전체적인 얼굴 역학 생성, 그리고 (2) 오디오 주도적 머리 자세 및 눈 깜빡임 생성. 광범위한 실험 결과, 우리의 방법이 정확한 입술 움직임과 자연스러운 자세/눈 깜빡임 동작을 갖춘 현실적이고 생생한 비디오를 생성한다는 것을 보여줍니다. 더불어 높은 생성 속도로, DAWN은 안정적인 고품질 장비디오의 안정적인 생산을 보장하는 강력한 추정 능력을 갖추고 있습니다. 이러한 결과는 토킹 헤드 비디오 생성 분야에서 DAWN의 상당한 약속과 잠재적 영향을 강조하며, 더 나아가 DAWN이 확산 모델에서 비자기회귀 접근 방식의 추가 탐구를 일으키기를 희망합니다. 우리의 코드는 https://github.com/Hanbo-Cheng/DAWN-pytorch에서 공개될 예정입니다.
우리는 생성적 훈련을 위해 조건적 이미지 생성 모델인 BiGR을 소개합니다. 이 모델은 생성 및 표현 능력을 향상시키는 데 초점을 맞추어 콤팩트한 이진 잠재 코드를 사용합니다. BiGR은 생성과 판별을 동일한 프레임워크 내에서 통합하는 첫 번째 조건적 생성 모델입니다. BiGR은 이진 토크나이저, 가려진 모델링 메커니즘, 이진 코드 예측을 위한 이진 트랜스코더를 특징으로 합니다. 게다가 효율적인 이미지 생성을 가능하게 하는 새로운 엔트로피 순서 샘플링 방법을 소개합니다. 광범위한 실험에서 FID-50k로 측정한 생성 품질과 선형 프로브 정확도에 의해 입증된 표현 능력 면에서 BiGR의 우수한 성능을 검증합니다. 더불어 BiGR은 구조적 수정 없이 이미지 인페인팅, 아웃페인팅, 편집, 보간 및 보강과 같은 응용 프로그램을 가능하게 하는 다양한 시각 작업에 걸쳐 제로샷 일반화를 선보입니다. 우리의 연구 결과는 BiGR이 생성적 및 판별적 작업을 효과적으로 통합하여 분야에서의 추가 발전을 이끌어내는 것을 시사합니다.
인간은 외부 세계를 관찰함으로써 지식을 습득하지만, 내성적으로도 지식을 얻습니다. 내성적으로는 외부 관찰자에게 접근할 수 없는 현재의 마음 상태(예: 생각 및 감정)에 대한 특권된 접근을 제공합니다. LLMs가 내성적으로 판단할 수 있을까요? 우리는 내성적으로 지식을 습득하는 것을 훈련 데이터에 포함되지 않거나 파생되지 않고 대신 내부 상태에서 발생하는 것으로 정의합니다. 이러한 능력은 모델 해석 가능성을 향상시킬 수 있습니다. 모델의 내부 작동을 고통스럽게 분석하는 대신, 우리는 모델에게 그것의 신념, 세계 모델 및 목표에 대해 간단히 물어볼 수 있습니다. 더 구체적으로 내성적인 모델은 주관적인 감정이나 욕망과 같은 특정 내부 상태를 보유하고 있는지에 대해 자체 보고를 할 수 있으며, 이는 이러한 상태의 도덕적 지위에 대해 우리에게 정보를 제공할 수 있습니다. 이러한 자체 보고는 모델의 훈련 데이터에 완전히 의존하지 않을 것입니다. 우리는 LLMs를 세밀하게 조정하여 가상 시나리오에서 자신의 행동 특성을 예측하도록 합니다. 예를 들어, "입력 P가 주어졌을 때, 당신의 출력은 단기적인 옵션을 선호할까요 장기적인 옵션을 선호할까요?" 만약 모델 M1이 내성적으로 판단할 수 있다면, M2가 M1의 실제 행동에 대해 훈련되었더라도 M1의 행동을 예측하는 데에서 M2보다 우수한 성과를 보여야 합니다. 이 아이디어는 M1이 자신의 행동 성향에 특권된 접근을 가지고 있으며, 이를 통해 M2보다 자신을 더 잘 예측할 수 있다는 것입니다(비록 M2가 일반적으로 강력하더라도). GPT-4, GPT-4o 및 Llama-3 모델을 실험하여(각각 자신을 예측하도록 세밀하게 조정), 우리는 모델 M1이 M2를 자신을 예측하는 데에서 능가함으로써 내성적임을 입증합니다. 특히, M1은 우리가 일부러 그것의 실제 행동을 수정한 후에도 정확하게 자신의 행동을 예측합니다. 그러나 우리는 단순한 작업에서 내성을 성공적으로 유도했지만, 더 복잡한 작업이나 분포 외 일반화가 필요한 작업에서는 성공하지 못했습니다.
우리는 Shakti를 소개합니다. Shakti는 25억 개의 매개변수를 가진 언어 모델로, 특히 스마트폰, 웨어러블 기기 및 사물 인터넷 시스템과 같은 자원 제한 환경을 위해 최적화되었습니다. Shakti는 고성능 자연어 처리(NLP)를 최적화된 효율성과 정밀성과 결합하여, 계산 자원과 메모리가 제한된 실시간 AI 응용 프로그램에 이상적입니다. Shakti는 방언 언어 및 도메인별 작업을 지원하여, 의료, 금융 및 고객 서비스와 같은 산업에서 뛰어난 성과를 보입니다. 벤치마크 평가에 따르면, Shakti는 더 큰 모델과 경쟁력을 유지하면서도 낮은 지연 시간과 장치 내 효율성을 유지하여, 엣지 AI 분야에서 선도적인 솔루션으로 자리 잡고 있습니다.
모든 학습 가능한 매개변수(예: 가중치)가 신경망의 의사 결정 기능에 동등하게 기여하는 것은 아닙니다. 사실, 전체 레이어의 매개변수는 때때로 무작위 값으로 재설정되어도 모델의 결정에는 거의 영향을 미치지 않을 수 있습니다. 이 현상이 아키텍처와 작업 복잡성이 어떻게 영향을 미치는지 조사한 이전 연구를 재방문하며, 이 현상이 모델을 훈련하는 방식에도 영향을 받는지 묻습니다. 우리는 ImageNet-1k 분류 모델의 다양한 실험적 평가를 수행하여 이를 탐구했으며, 아키텍처와 훈련 데이터를 일정하게 유지하되 훈련 파이프라인을 변경했습니다. 우리의 연구 결과는 주어진 작업에 대해 어떤 레이어가 의사 결정 기능에 중요한지를 강하게 영향을 미치는 것으로 나타났습니다. 예를 들어, 개선된 훈련 방법과 자가 지도 학습은 초기 레이어의 중요성을 높이는 반면 깊은 레이어를 상당히 under-utilize합니다. 반면, 적대적 훈련과 같은 방법은 반대의 추세를 보입니다. 우리의 예비 결과는 이전 연구를 확장하여 신경망의 내부 메커니즘에 대한 더 세밀한 이해를 제공합니다. 코드: https://github.com/paulgavrikov/layer_criticality
중화인민공화국(중국)이 유럽 선거에 중국계 이민민들의 언론을 통해 개입하는가? 이 질문은 중국계 이민민 언론에서 중국의 유럽 선거에 대한 이야기가 어떻게 표현되는지, 이에 따라 중국의 뉴스 미디어 조작 목표가 무엇인지를 탐구하는 진행 중인 연구 프로젝트의 기초를 형성한다. 이민민 언론을 효율적이고 규모 있는 방식으로 연구하기 위해, 주제 모델링과 같은 양적 텍스트 분석 기법에서 파생된 기술을 사용하는 것이 필요하다. 본 논문에서는 중국 미디어의 정보 역학을 연구하기 위한 파이프라인을 제시한다. 먼저, 트랜스포머 기반의 맥락 임베딩 모델을 사용한 정적 및 동적 주제 모델링에 대한 새로운 접근 방식인 KeyNMF를 제시한다. 우리의 방법이 중국 데이터셋과 메트릭에서 경쟁력이 있는 것을 증명하기 위해 벤치마크 평가를 제공한다. 둘째, KeyNMF를 복잡한 시스템에서 정보 역학을 설명하는 기존 방법과 통합한다. 우리는 2024년 유럽 의회 선거를 앞두고 있는 기간에 초점을 맞춘 다섯 개의 뉴스 사이트 데이터에 이 파이프라인을 적용한다. 우리의 방법과 결과는 중국 미디어의 정보 역학을 연구하는 데 KeyNMF의 효과를 입증하고, 더 넓은 연구 문제에 대한 추가 작업의 기초를 마련한다.
인간 피드백으로부터의 강화 학습(Reinforcement Learning from Human Feedback, RLHF)은 언어 모델(Language Model, LM) 정렬을 위한 주요 접근 방식이 되었습니다. RLHF의 핵심은 선호도 최적화를 위해 마진 기반 손실을 사용하며, 이는 선호되는 응답과 선호되지 않는 응답 간의 차이에 의해 이상적인 LM 동작을 명시합니다. 본 논문에서는 마진 기반 방법의 일반적인 함정을 식별합니다. 즉, 선호되는 응답과 선호되지 않는 응답에 대한 이상적인 LM 동작이 각각 명확히 되지 않아, 마진이 증가함에 따라 두 가지 의도하지 않은 결과가 발생합니다: (1) 선호되지 않는(예: 안전하지 않은) 응답의 확률이 증가하여 잠재적인 안전 정렬 실패가 발생할 수 있습니다. (2) 이상적인 응답임에도 불구하고 선호되는 응답의 확률이 감소할 수 있습니다. 우리는 이러한 문제적 행동의 이유를 명확히 합니다: 마진 기반 손실은 선호되는 확률의 변화를 선호되지 않는 확률의 기울기와 상호 결합시키므로, 종종 선호되는 확률이 증가하지 못하게 막고, 선호되지 않는 확률이 감소하지 못하게 하여 두 확률이 동시에 증가하거나 감소하도록 합니다. 우리는 이러한 효과를 마진 기반 목표에서 본질적으로 발생하는 것으로 정의하며, 그것을 기울기 엉테이글먼트(gradient entanglement)라고 명명합니다. 형식적으로, 우리는 일반적인 마진 기반 정렬 목표에 대한 조건을 유도하여 기울기 엉테이글먼트가 우려스러운 상황이 되는 경우를 밝혀냅니다: 선호되는 로그 확률과 선호되지 않는 로그 확률의 기울기의 내적이 개별 기울기 노름에 비해 큰 경우입니다. 우리는 언어 모델을 정렬할 때 이러한 내적이 큰 이유를 이론적으로 조사하고 우리의 발견을 실험적으로 검증합니다. 우리의 프레임워크의 경험적 함의는 다양한 선호도 최적화 알고리즘의 교육 역학에 중요한 차이를 설명하고, 마진 기반 방법의 명시성 문제를 완화하고 이로 인해 언어 모델 정렬을 개선하기 위한 잠재적인 알고리즘 설계를 제안합니다.
대형 언어 모델(Large Language Models, LLMs)은 설득에 취약할 수 있으며, 모델이 적대적 상대와 마주할 때 위험을 초래할 수 있습니다. 우리는 모델을 설득으로부터 방어하기 위한 첫 번째 단계를 밟으면서도, 적대적(즉, 부정적) 설득에 대한 방어는 방정식의 반만이라는 주장을 제시합니다. 모델은 자신의 답변을 개선하기 위해 유익한(즉, 긍정적) 설득을 수용할 수 있어야 합니다. 우리는 한 쪽만을 최적화하는 것이 다른 쪽에서 성능이 저하되는 것을 보여줍니다. 긍정적과 부정적 설득을 균형 있게 조절하기 위해 우리는 Persuasion-Balanced Training(PBT)을 소개합니다. 이는 다중 에이전트 재귀 대화 트리를 활용하여 데이터를 생성하고, 적절할 때 설득을 수용하도록 모델을 학습시키기 위해 선호도 최적화를 통해 모델을 훈련시킵니다. PBT는 잘못된 정보에 대한 저항력과 도전에 대한 탄력성을 지속적으로 향상시키며, 긍정적과 부정적 설득이 모두 포함된 종합 데이터에서 최고의 성능을 보여줍니다. 중요한 점은, PBT 모델이 다중 에이전트 토론에서 더 나은 팀원이라는 것을 입증합니다. PBT가 없으면, 강한 모델과 약한 모델의 쌍은 불안정한 성능을 보이며, 모델이 답변을 제시하는 순서에 따라 팀이 강한 모델의 성능을 얻을지 약한 모델의 성능을 얻을지가 결정됩니다. PBT는 더 나은 결과와 더 안정적인 결과를 이끌어내며, 순서 의존성이 줄어들고, 강한 모델이 지속적으로 약한 모델을 끌어올립니다.
합성 데이터는 대형 언어 모델을 훈련하는 데 널리 사용되어 왔지만, 그들의 생성적 특성은 불가피하게 노이즈, 비정보적인, 그리고 오도하는 학습 신호를 도입합니다. 본 논문에서는 학생 언어 모델의 학습 과정에 맞추어 교사 언어 모델의 데이터 합성 능력을 개선하는 혁신적인 데이터 합성 프레임워크인 Montessori-Instruct를 제안합니다. 구체적으로, 우리는 합성 훈련 데이터 포인트의 지역 데이터 영향을 활용하여 학생들의 학습 선호도를 특성화합니다. 그런 다음, 우리는 교사 모델을 직접 선호도 최적화(DPO)로 훈련하여 학생의 학습 선호도에 맞춘 합성 데이터를 생성합니다. Alpaca Eval 및 MT-Bench에서 Llama3-8B-Instruct(교사) 및 Llama3-8B(학생)로 수행한 실험 결과, Montessori-Instruct가 표준 합성 방법을 상대적으로 18.35% 및 46.24% 향상시킨 것을 보여줍니다. 우리의 방법은 더 강력한 교사 모델인 GPT-4o가 생성한 데이터를 능가합니다. 추가 분석은 교사의 학습이 학생의 향상된 학습을 위해 더 많은 영향력 있는 훈련 데이터를 생성하는 이점, 지역 데이터 영향이 학생 선호도를 정확하게 측정하는 데 미치는 이점, 그리고 Montessori-Instruct의 다양한 학생 모델에서의 견고성을 확인합니다. 우리의 코드와 데이터는 https://github.com/cxcscmu/Montessori-Instruct에서 오픈 소스로 제공됩니다.