번역이 포함된 일일 선별된 AI 연구 논문
많은 학습이 필요 없는 희소 주의 방법이 확산 모델의 가속화에 효과적입니다. 최근 몇몇 연구에서는 희소 주의를 학습 가능하게 만들면 생성 품질을 유지하면서 희소성을 더욱 높일 수 있음을 제안합니다. 본 논문은 세 가지 핵심 질문을 연구합니다: (1) 두 가지 일반적인 마스킹 규칙인 Top-k와 Top-p는 언제 실패하며, 이러한 실패를 어떻게 피할 수 있는가? (2) 학습 가능한 희소 주의가 학습이 필요 없는 방법보다 더 높은 희소성에 도달할 수 있는 이유는 무엇인가? (3) 확산 손실을 사용하여 희소 주의를 미세 조정할 때의 한계는 무엇이며, 이를 어떻게 해결할 수 있는가? 이러한 분석을 바탕으로 우리는 생성 품질을 저하시키지 않으면서 높은 희소성을 달성하는 학습 가능한 희소 주의 방법인 SpargeAttention2를 제안합니다. SpargeAttention2는 (i) 높은 희소성에서 더욱 강력한 마스킹을 위해 Top-k와 Top-p를 결합한 하이브리드 마스킹 규칙, (ii) 효율적인 학습 가능한 희소 주의 구현, 그리고 (iii) 희소 주의를 사용한 미세 조정 동안 생성 품질을 더 잘 보존하기 위한 증류에서 영감을 받은 미세 조정 목표를 포함합니다. 비디오 확산 모델에 대한 실험 결과, SpargeAttention2는 생성 품질을 유지하면서 95%의 주의 희소성과 16.2배의 주의 가속화를 달성하여 기존 희소 주의 방법들을 일관되게 능가함을 보여줍니다.
우리는 확산 사전 분포(diffusion prior)에 의해 공동 규제되고 확산 모델에 의해 디코딩되는 잠재 표현을 학습하기 위한 프레임워크인 통합 잠재 공간(Unified Latents, UL)을 제안합니다. 인코더의 출력 노이즈를 사전 분포의 최소 노이즈 수준과 연결함으로써, 잠재 비트레이트에 대한 타이트한 상한을 제공하는 간단한 학습 목적 함수를 도출합니다. ImageNet-512에서 우리의 접근 방식은 Stable Diffusion 잠재 공간으로 학습된 모델들보다 더 적은 학습 FLOPs를 요구하면서 1.4의 경쟁력 있는 FID와 높은 복원 품질(PSNR)을 달성했습니다. Kinetics-600에서는 1.3의 새로운 최첨단 FVD 기록을 세웠습니다.
본 논문은 최신 네이티브 GUI 에이전트 모델인 GUI-Owl-1.5를 소개한다. 해당 모델은 다양한 규모(2B/4B/8B/32B/235B)의 지시/사고(Instruct/Thinking) 변종을 특징으로 하며, 데스크톱, 모바일, 브라우저 등 다양한 플랫폼을 지원하여 클라우드-엣지 협업과 실시간 상호작용을 가능하게 한다. GUI-Owl-1.5는 오픈소스 모델 기준 20개 이상의 GUI 벤치마크에서 최첨단 성능을 달성했다: (1) GUI 자동화 작업에서는 OSWorld에서 56.5, AndroidWorld에서 71.6, WebArena에서 48.4점을 획득했다. (2) 그라운딩 작업에서는 ScreenSpotPro에서 80.3점을 획득했다. (3) 도구 호출 작업에서는 OSWorld-MCP에서 47.6점, MobileWorld에서 46.8점을 획득했다. (4) 메모리 및 지식 작업에서는 GUI-Knowledge Bench에서 75.5점을 획득했다. GUI-Owl-1.5에는 몇 가지 핵심 혁신 기술이 적용되었다: (1) 하이브리드 데이터 플라이휠(Hybrid Data Flywheel): 데이터 수집의 효율성과 질을 향상시키기 위해 시뮬레이션 환경과 클라우드 기반 샌드박스 환경을 결합한 UI 이해 및 트래젝토리 생성 데이터 파이프라인을 구축하였다. (2) 에이전트 능력의 통합 강화: 통합 사고 합성(Unified Thought-Synthesis) 파이프라인을 사용하여 모델의 추론 능력을 향상시키는 동시에, 도구/MCP 사용, 메모리, 다중 에이전트 적응 등 핵심 에이전트 능력 향상에 특히 중점을 두었다. (3) 다중 플랫폼 환경 RL 확장: 다중 플랫폼 간 충돌 및 장기간 작업의 낮은 훈련 효율성 문제를 해결하기 위한 새로운 환경 RL 알고리즘인 MRPO를 제안한다. GUI-Owl-1.5 모델은 오픈소스로 공개되었으며, 온라인 클라우드 샌드박스 데모는 https://github.com/X-PLUG/MobileAgent에서 이용할 수 있다.
자율적으로 다단계 작업을 수행하는 에이전시 AI 어시스턴트는 사용자 경험 측면에서 여러 가지 열린 질문을 제기한다: 특히 운전과 같은 주의력이 중요한 상황에서 이러한 시스템이 장시간 운영 중 진행 상황과 추론 과정을 어떻게 전달해야 할까? 본 연구는 계획된 단계와 중간 결과 피드백을 최종 결과만 제공하는 무음 운영과 비교하는 통제된 혼합 방법론 연구(N=45)를 통해 에이전시 LLM 기반 차량 내 어시스턴트의 피드백 시점과 상세도를 탐구한다. 차량 내 음성 어시스턴트를 활용한 이중 과제 패러다임을 적용한 결과, 중간 피드백이 인지된 속도, 신뢰도, 사용자 경험을 유의미하게 향상시키고 작업 부하를 감소시키는 것으로 나타났으며, 이러한 효과는 다양한 작업 복잡도와 상호작용 맥락에서 일관되게 관찰되었다. 심층 인터뷰를 통해 사용자들은 적응형 접근법을 선호한다는 점이 추가로 밝혀졌다: 신뢰 형성을 위한 초기 높은 투명성을 바탕으로 시스템이 신뢰성을 입증함에 따라 점차적으로 상세도를 줄여나가며, 작업의 중요도와 상황적 맥락에 따라 조정하는 방식이다. 우리는 이러한 실증적 결과를 바탕으로 투명성과 효율성의 균형을 이루는 에이전시 어시스턴트의 피드백 시점 및 상세도에 대한 설계 시사점을 제안한다.
LLM은 단일 응답으로 해결되지 않지만 정보를 얻기 위해 환경과 상호작용이 필요한 복잡한 문제에 점점 더 많이 활용되고 있습니다. 이러한 시나리오에서 LLM은 탐색을 중단하고 답변을 확정해야 할 시점에 내재된 비용-불확실성 트레이드오프에 대해 추론해야 합니다. 예를 들어, 프로그래밍 작업에서 LLM은 생성한 코드 조각의 정확성에 대해 확신이 서지 않으면 해당 코드를 테스트해야 합니다. 테스트 작성 비용은 0이 아니지만 일반적으로 실수를 저지르는 비용보다는 낮습니다. 본 연구에서는 LLM이 이러한 비용-불확실성 트레이드오프의 균형을 명시적으로 추론하도록 유도함으로써 더 최적의 환경 탐색을 수행할 수 있음을 보여줍니다. 우리는 정보 검색 및 코딩을 포함한 여러 작업을 불확실성 하의 순차적 의사 결정 문제로 정형화합니다. 각 문제에는 LLM 에이전트에 전달되는 사전 확률을 통해 추론할 수 있는 잠재 환경 상태가 존재합니다. 우리는 LLM에 이러한 추가 컨텍스트를 제공하여 더 최적으로 행동할 수 있도록 하는 Calibrate-Then-Act(CTA) 프레임워크를 소개합니다. 이 개선 효과는 기준 모델과 CTA 모두에 대한 강화 학습 훈련 하에서도 유지됩니다. 정보 탐색형 질의응답과 단순화된 코딩 작업에 대한 우리의 결과는 CTA를 통해 비용-편익 트레이드오프를 명시적으로 설정하는 것이 에이전트가 더 최적의 의사 결정 전략을 발견하는 데 도움이 될 수 있음을 보여줍니다.
웨어러블 장치(예: 촉각 장갑)를 통해 수집된 인간의 데모는 정책 학습에 빠르고 정교한 지도를 제공하며, 풍부하고 자연스러운 촉각 피드백에 의해 유도됩니다. 그러나 중요한 과제는 감각 방식과 구현체의 차이에도 불구하고 인간이 수집한 촉각 신호를 로봇에 어떻게 전달하느냐입니다. 촉각을 활용한 기존의 인간-로봇(H2R) 접근법은 동일한 촉각 센서를 가정하거나, 짝지어진 데이터를 요구하거나, 인간 실연자와 로봇 간의 구현체 차이가 거의 없는 경우가 많아 확장성과 일반성을 제한합니다. 우리는 인간이 수집한 촉각 신호를 다른 구현체를 가진 로봇으로 전달하는 교차 구현체 촉각 정렬 방법인 TactAlign을 제안합니다. TactAlign은 정류 흐름을 사용하여 인간과 로봇의 촉각 관측을 공유 잠재 표현으로 변환하며, 이 과정에 짝지어진 데이터셋, 수동 레이블 또는 특권 정보가 필요하지 않습니다. 우리의 방법은 손-객체 상호작용에서 도출된 가상 짝에 의해 유도되는 저비용 잠재 전송을 가능하게 합니다. 우리는 TactAlign이 여러 접촉이 많은 작업(회전, 삽입, 뚜껑 닫기)에서 H2R 정책 전달을 개선하고, 인간 데이터(5분 미만)로 보지 않은 객체와 작업에 대해 일반화되며, 매우 정교한 작업(전구 끼우기)에서 제로샷 H2R 전송을 가능하게 함을 입증합니다.
본 보고서는 총 400B 개의 파라미터를 보유하고 토큰당 13B 개의 파라미터가 활성화되는 희소 Mixture-of-Experts(전문가 혼합) 모델인 Arcee Trinity Large의 기술 보고서를 제출합니다. 또한 총 파라미터 6B(토큰당 활성화 1B)의 Trinity Nano, 총 파라미터 26B(토큰당 활성화 3B)의 Trinity Mini에 대해서도 함께 보고합니다. 본 모델들은 교차 적용된 지역/전역 어텐션, 게이트 어텐션, 깊이 비례 샌드위치 노름, MoE를 위한 시그모이드 라우팅 등 현대적인 아키텍처를 채택했습니다. Trinity Large의 경우 '소프트 클램핑 모멘텀 전문가 편향 업데이트(SMEBU)'라는 새로운 MoE 부하 분산 전략을 추가로 도입했습니다. 모델 학습에는 Muon 옵티마이저를 사용하였으며, 세 모델 모두 손실 급등 없이 학습을 완수했습니다. Trinity Nano와 Trinity Mini는 10조 토큰, Trinity Large는 17조 토큰으로 사전 학습을 수행했습니다. 모델 체크포인트는 https://huggingface.co/arcee-ai 에서 이용 가능합니다.
확산 트랜스포머(DiT)는 이미지 및 동영상 생성 분야에서 최첨단 성능을 달성했지만, 그 성공은 높은 계산 비용을 수반합니다. 이러한 비효율성은 주로 콘텐츠의 복잡성에 관계없이 전체 잡음 제거 단계에 걸쳐 일정한 크기의 패치를 사용하는 고정된 토큰화 과정 때문입니다. 본 논문에서는 콘텐츠 복잡성과 잡음 제거 시간 스텝에 따라 패치 크기를 가변적으로 조절하는 효율적인 추론 시 전략인 동적 토큰화를 제안합니다. 우리의 핵심 통찰은 초기 시간 스텝에서는 전역 구조를 모델링하기 위해 더 거친 패치만 필요하지만, 후반부 반복에서는 지역적 세부 사항을 정교화하기 위해 더 미세한(더 작은 크기의) 패치가 필요하다는 점입니다. 추론 과정에서 우리의 방법은 이미지 및 동영상 생성을 위한 잡음 제거 단계 전반에 걸쳐 패치 크기를 동적으로 재배분하여 지각적 생성 품질을 유지하면서도 비용을 크게 절감합니다. 광범위한 실험을 통해 우리 접근법의 효과를 입증했습니다: FLUX-1.Dev과 Wan 2.1에서 각각 최대 3.52배 및 3.2배의 속도 향상을 달성하면서도 생성 품질과 프롬프트 준수도를 저하시키지 않았습니다.
급속히 발전하는 인공지능(AI) 모델이 초래하는 전례 없는 위험을 이해하고 식별하기 위해, 본 「프론티어 AI 위험 관리 프레임워크 실무 적용」은 해당 프론티어 위험에 대한 포괄적인 평가를 제시합니다. 대규모 언어 모델(LLM)의 일반적 능력이 빠르게 진화하고 에이전시 AI가 확산됨에 따라, 본 위험 분석 기술 보고서는 사이버 공격, 설득 및 조작, 전략적 기만, 통제 불능 AI 연구개발, 자기 복제라는 다섯 가지 주요 차원에 대한 업데이트되고 세분화된 평가를 제시합니다. 구체적으로, 사이버 공격에는 더 복잡한 시나리오를 도입했습니다. 설득 및 조작 측면에서는 새로 출시된 LLM에 대한 LLM 간 설득 위험을 평가합니다. 전략적 기만 및 계획 수립 측면에서는 초기 불일치(Emergent Misalignment)와 관련된 새로운 실험을 추가했습니다. 통제 불능 AI 연구개발 측면에서는 에이전트가 자율적으로 메모리 기반과 도구 세트를 확장함에 따른 "오진화(Mis-evolution)"에 주목합니다. 또한 Moltbook 상호작용 동안 OpenClaw의 안전성 성능을 모니터링하고 평가합니다. 자기 복제 측면에서는 새로운 자원 제약 시나리오를 소개합니다. 더 중요하게는, 우리는 이러한 신흥 위협을 해결하기 위해 일련의 강력한 완화 전략을 제안하고 검증하여 프론티어 AI의 안전한 배치를 위한 예비 기술 및 실행 가능한 경로를 제공합니다. 본 연구는 AI 프론티어 위험에 대한 우리의 현재 이해를 반영하며, 이러한 과제를 완화하기 위한 공동의 행동을 촉구합니다.
프론티어 대규모 언어 모델들은 강력한 추론 및 수학 능력을 보여주지만, 원천 데이터로부터 도메인 특화 과학 언어 모델을 훈련하는 실제 과정은 여전히 제대로 문서화되지 않고 있습니다. 본 연구에서는 수학, 컴퓨터 과학, 이론 물리학 분야의 원시 arXiv LaTeX 소스로부터 1.36B 매개변수 과학 언어 모델을 직접 훈련하는 상세한 사례 연구를 제시합니다. 메타데이터 필터링, 아카이브 검증, LaTeX 추출, 텍스트 정규화, 도메인 인지 토큰화, 그리고 제한된 컴퓨팅 자원(2xA100 GPU) 하에서의 고밀도 트랜스포머 훈련을 아우르는 종단간 파이프라인을 설명합니다. 24회의 실험 실행을 통해 훈련 안정성, 확장 행동, 데이터 산출 손실, 그리고 인프라 병목 현상을 분석합니다. 우리의 연구 결과는 전처리 결정이 사용 가능한 토큰 양에 어떻게 큰 영향을 미치는지, 토큰화가 기호 안정성에 어떤 영향을 주는지, 그리고 저장 장치 및 I/O 제약이 컴퓨팅만큼이나 제한 요소가 될 수 있음을 강조합니다. 우리는 더 나아가 수렴 동역학을 분석하고 데이터 풍부 환경(52B 사전 훈련 토큰)에서 안정적인 훈련 행동을 보여줍니다. 본 논문은 새로운 아키텍처를 제안하기보다는, 소규모 과학 언어 모델을 처음부터 훈련하는 과정에 대한 공학적 근거와 투명한 기록을 제공합니다. 이러한 통찰이 중간 규모의 컴퓨팅 예산으로 도메인 특화 모델을 구축하려는 연구자들에게 도움이 되기를 바랍니다.
불완전 정보 게임에서 다중 에이전트 강화 학습(MARL)의 발전은 역사적으로 기준 모델의 수동적 반복 정제에 의존해 왔습니다. 반사실적 후회 최소화(CFR) 및 정책 공간 응답 오라클(PSRO)과 같은 기초적인 방법론 군이 견고한 이론적 토대 위에 구축되어 있지만, 가장 효과적인 변종들을 설계하는 과정에서는 방대한 알고리즘 설계 공간을 탐색하기 위해 인간의 직관에 의존하는 경우가 많습니다. 본 연구에서는 대규모 언어 모델로 구동되는 진화형 코딩 에이전트인 AlphaEvolve를 활용하여 새로운 다중 에이전트 학습 알고리즘을 자동으로 발견하는 방법을 제안합니다. 우리는 게임 이론적 학습의 두 가지 상이한 패러다임에 대해 새로운 변종들을 진화시킴으로써 이 프레임워크의 일반성을 입증합니다. 첫째, 반복적 후회 최소화 영역에서 후회 누적 및 정책 도출을 제어하는 논리를 진화시켜 새로운 알고리즘인 변동성 적응 할인(VAD-)CFR을 발견했습니다. VAD-CFR은 변동성에 민감한 할인, 일관성 강화 낙관론, 엄격한 웜스타트 정책 누적 스케줄을 포함한 새롭고 직관적이지 않은 메커니즘을 사용하여 할인 예측 CFR+와 같은 최첨단 기준 모델들을 성능적으로 능가합니다. 둘째, 개체군 기반 학습 알고리즘 영역에서 PSRO의 학습 시 및 평가 시 메타 전략 솔버를 진화시켜 새로운 변종인 평활 혼합 낙관적 후회(SHOR-)PSRO를 발견했습니다. SHOR-PSRO는 낙관적 후회 매칭과 최적 순수 전략들에 대한 온도 제어 평활 분포를 선형적으로 혼합하는 하이브리드 메타 솔버를 도입합니다. 학습 동안 이 혼합 인자와 다양성 보너스를 동적으로 어닐링함으로써, 해당 알고리즘은 개체군 다양성에서 엄격한 균형 찾기로의 전환을 자동화하여 표준 정적 메타 솔버들에 비해 우수한 경험적 수렴 성능을 보여줍니다.
환경 역학을 예측하는 VLA 모델 구현(월드 모델링으로 알려짐)은 로봇 추론 및 일반화 성능 향상에 필수적인 요소로 인식되어 왔습니다. 그러나 기존 방법론은 두 가지 주요 문제에 직면해 있습니다: 1. 훈련 목표가 모델이 픽셀 수준 재구성에 지나치게 집중하도록 하여 의미론적 학습과 일반화를 제한한다는 점, 2. 추론 과정에서 예측된 미래 관측값에 의존함에 따라 오류 누적이 빈번하게 발생한다는 점입니다. 이러한 과제를 해결하기 위해 우리는 병렬 점진적 확장을 통한 미래 표현 정렬(FRAPPE) 방법을 제안합니다. 우리의 방법은 두 단계의 미세 조정 전략을 채택합니다: 중간 훈련 단계에서는 모델이 미래 관측값의 잠재 표현을 예측하도록 학습하며, 후속 훈련 단계에서는 병렬적으로 계산 부하를 확장하고 여러 다양한 시각 기초 모델과의 표현 정렬을 동시에 수행합니다. 미세 조정 효율을 크게 개선하고 행동 주석 데이터에 대한 의존성을 줄임으로써, FRAPPE는 일반 목적 로봇 정책의 월드 인식 향상을 위한 확장 가능하고 데이터 효율적인 경로를 제공합니다. RoboTwin 벤치마크 및 실제 작업에 대한 실험 결과, FRAPPE가 최첨단 접근법을 능가하며 장기간 및 보이지 않은 시나리오에서도 강력한 일반화 성능을 보여줌을 확인했습니다.
우리는 2층 신경망이 모듈러 덧셈 과제를 해결하기 위해 특징을 학습하는 방식을 종합적으로 분석한다. 본 연구는 학습된 모델에 대한 완전한 기계론적 해석과 그 훈련 역학에 대한 이론적 설명을 제공한다. 기존 연구에서는 개별 뉴런이 단일 주파수 푸리에 특징과 위상 정렬을 학습한다는 점을 확인했으나, 이러한 특징들이 어떻게 결합되어 전체적 해법을 구성하는지 완전히 설명하지는 못했다. 우리는 과매개화 상태에서 훈련 중 발생하는 다양화 조건을 위상 대칭과 주파수 다양화라는 두 부분으로 형식화하여 이러한 간극을 메운다. 우리는 이러한 특성들이 네트워크가 집단적으로 모듈러 덧셈 과제에 대한 올바른 논리를 따르는 결함 있는 지시 함수를 근사하도록 허용함을 증명한다. 개별 뉴런이 잡음이 섞인 신호를 생성하지만, 위상 대칭은 다수결 방식으로 잡음을 상쇄하여 네트워크가 올바른 합을 강건하게 식별할 수 있게 한다. 더 나아가, 무작위 초기화 하에서 이러한 특징이 출현하는 현상을 복권 추첨 메커니즘을 통해 설명한다. 우리의 경사 흐름 분석은 각 뉴런 내에서 주파수들이 경쟁하며, 초기 스펙트럼 크기와 위상 정렬에 의해 "승자"가 결정됨을 증명한다. 기술적 관점에서, 우리는 계층별 위상 결합 역학을 엄밀하게 규명하고 ODE 비교 보조정리를 사용하여 경쟁 구도를 형식화한다. 마지막으로, 이러한 통찰력을 활용하여 그로킹 현상을 해체하고, 이를 손실 최소화와 가중치 감쇠 간의 경쟁에 의해 추동되는 암기 단계와 두 차례의 일반화 단계로 구성된 3단계 과정으로 규정한다.
복잡한 소프트웨어 환경에서 작동하는 에이전트는 자신의 행동 결과에 대해 추론함으로써 이점을 얻습니다. 단일 사용자 인터페이스(UI) 작업이라도 잘못 수행되면 오랜 시간이 걸리고 결과물을 보존해야 하는 워크플로우를 완전히 틀어지게 할 수 있기 때문입니다. 이러한 어려움은 컴퓨터 사용 시나리오에서 특히 심각한데, 실제 실행 환경은 반사실적 탐색을 지원하지 않아 환경이 완전히 디지털이고 결정론적임에도 불구하고 대규모 시행착오 학습 및 계획 수립을 실용적으로 만들지 못합니다. 본 논문에서는 데스크톱 소프트웨어를 위한 월드 모델인 CUWM(Computer-Using World Model)을 소개합니다. CUWM은 현재 상태와 후보 행동이 주어졌을 때 다음 UI 상태를 예측합니다. CUWM은 UI 동역학을 두 단계로 나누어 접근합니다. 먼저 에이전트와 관련된 상태 변화에 대한 텍스트 설명을 예측한 다음, 이러한 변화를 시각적으로 구현하여 다음 스크린샷을 합성합니다. CUWM은 실제 Microsoft Office 애플리케이션과 상호작용하는 에이전트로부터 수집한 오프라인 UI 전이 데이터로 훈련되며, 텍스트 기반 전이 예측을 컴퓨터 사용 환경의 구조적 요구사항에 맞추기 위한 경량 강화 학습 단계를 통해 추가적으로 개선됩니다. 우리는 CUWM을 실행 전 검증 시점 행동 탐색을 통해 평가합니다. 여기서는 고정된 에이전트가 실행에 앞서 후보 행동을 시뮬레이션하고 비교하기 위해 월드 모델을 사용합니다. 다양한 Office 작업에 걸쳐, 월드 모델이 안내하는 검증 시점 확장은 의사 결정 품질과 실행 견고성을 향상시킵니다.
대규모 언어 모델(LLM) 편집의 핵심 과제는 능력 보존입니다: 대상 행동을 성공적으로 변경하는 방법들이 편집 프록시를 은밀히 악용하고 일반적인 능력을 손상시켜 프록시/보상 해킹을 연상시키는 퇴화된 행동을 생성할 수 있습니다. 본 논문에서는 능력 보존을 명시적 제약 조건으로 처리하여 기존 여러 편집 접근법을 통합 및 일반화하는 확장 가능하고 이론적인 2차 편집 알고리즘인 CrispEdit를 제시합니다. CrispEdit는 편집을 제약 최적화 문제로 공식화하고, 능력 손실 지형의 낮은 곡률 부분공간으로 편집 업데이트를 투영하여 제약 조건을 강제합니다. CrispEdit의 핵심은 Bregman 발산을 통해 능력 제약 조건을 표현하는 데 있으며, 그 2차 형태는 기본 모델이 수렴까지 학습되지 않은 경우에도 정확하게 Gauss-Newton Hessian을 제공합니다. 우리는 Kronecker-factored approximate curvature (K-FAC)와 대규모 투영 행렬 구성을 피하기 위해 Kronecker 구조를 활용한 새로운 matrix-free projector를 사용하여 이 2차 절차를 LLM 규모에서 효율적으로 만듭니다. 표준 모델 편집 벤치마크에서 CrispEdit는 높은 편집 성공률을 달성하면서 데이터셋 전반에 걸쳐 능력 저하를 평균 1% 미만으로 유지하여 기존 편집기법 대비 크게 개선된 성능을 보여줍니다.
선형 어텐션 트랜스포머는 효율성으로 인해 소프트맥스 어텐션의 강력한 대안으로 부상했습니다. 그러나 선형 어텐션은 일반적으로 표현력이 낮아 소프트맥스 어텐션 대비 정확도가 감소하는 경향이 있습니다. 본 연구는 소프트맥스 어텐션과 선형 어텐션 간의 정확도 격차를 해소하기 위해 강력한 선형 어텐션 변종인 Mamba-2를 개선합니다. 먼저 Mamba-2를 가장 기본적이고 중요한 구성 요소로 단순화하여 어떤 설계 선택이 높은 정확도를 달성하는지 평가합니다. 이 단순화된 Mamba 변종(Mamba-2S)을 바탕으로 A-마스크를 개선하고 은닉 상태의 차수를 증가시켜, 소프트맥스 어텐션에 근접한 정확도를 유지하면서 긴 컨텍스트 길이에서 훨씬 더 메모리 효율적인 2Mamba 방법을 제안합니다. 또한 Mamba-2가 소프트맥스 어텐션 정확도를 능가하도록 하는 요소를 분석합니다. 모든 실험에 대한 코드를 공개합니다.
대규모 언어 모델(LLM)은 최근 강력한 추론 및 일반화 능력을 보여주며 복잡한 환경에서 의사 결정 정책으로 활용될 동기를 부여하고 있습니다. 방대한 상태-행동 공간과 부분 관측 가능성을 지닌 스타크래프트 II(SC2)는 이를 검증하기 위한 도전적인 테스트베드입니다. 그러나 기존 LLM 기반 SC2 에이전트는 주로 정책 자체 개선에 초점을 맞추고, 학습 가능한 행동 조건 전이 모델을 의사 결정 루프에 통합하는 것을 간과해 왔습니다. 이러한 격차를 해소하기 위해 우리는 부분 관측 하에서 미래 관측을 예측하는 최초의 SC2 월드 모델인 StarWM을 제안합니다. SC2의 하이브리드 역학을 효과적으로 학습하기 위해 관측을 5개의 의미론적 모듈로 분해하는 구조화된 텍스트 표현을 도입하고, SC2 역학 예측을 위한 최초의 지시어 조정 데이터셋인 SC2-Dynamics-50k를 구축했습니다. 또한 예측된 구조화 관측을 위한 다차원 오프라인 평가 프레임워크를 개발했습니다. 오프라인 결과는 StarWM이 자원 예측 정확도와 아군 전체 상황 일관성에서 각각近 60% 향상된 성능을 포함하여 제로샷 기준선 대비 상당한 이점을 보여주었습니다. 마지막으로, 우리는 StarWM을 Generate-Simulate-Refine 의사 결정 루프에 통합하여 예견 기반 정책 개선을 수행하는 월드 모델 강화 의사 결정 시스템인 StarWM-Agent를 제안합니다. SC2 내장 AI에 대한 온라인 평가 결과, Hard(LV5), Harder(LV6), VeryHard(LV7) 난이도에서 각각 30%, 15%, 30%의 승률 향상과 더불어 향상된 전체 운영 안정성 및 전술적 위험 평가 성능을 보여주며 일관된 개선을 입증했습니다.
자율 웹 에이전트의 급속한 발전에도 불구하고, 작업이 진행됨에 따라 선호도를 형성하고 에이전트 행동을 수정하기 위해서는 여전히 인간의 개입이 필수적입니다. 그러나 현재의 에이전트 시스템은 인간이 언제, 왜 개입하는지에 대한 체계적인 이해가 부족하여 중요한 의사 결정 시점을 자율적으로 통과하거나 불필요한 확인을 요청하는 경우가 많습니다. 본 연구에서는 협업적 웹 작업 실행을 지원하기 위해 인간 개입을 모델링하는 과제를 소개합니다. 우리는 4,200개 이상의 인간과 에이전트의 교차 행동을 포함하는 400개의 실제 사용자 웹 탐색 궤적 데이터셋인 CowCorpus를 구축했습니다. 우리는 사용자와 에이전트 간의 상호작용에서 네 가지 뚜렷한 패턴(미동조 감독, 직접적 감시, 협업적 문제 해결, 완전한 사용자 인수)을 확인했습니다. 이러한 통찰력을 바탕으로 언어 모델(LM)을 활용하여 사용자의 상호작용 스타일을 기반으로 개입 가능성을 예측하도록 훈련시켰으며, 기본 LM 대비 개입 예측 정확도가 61.4-63.4% 향상되었습니다. 마지막으로, 이러한 개입 인식 모델을 실시간 웹 탐색 에이전트에 배포하고 사용자 연구를 통해 평가한 결과, 사용자 평가 에이전트 유용성이 26.5% 증가한 것으로 나타났습니다. 종합적으로, 우리의 결과는 인간 개입을 구조적으로 모델링함으로써 더욱 적응적이고 협업적인 에이전트를 구현할 수 있음을 보여줍니다.
대규모 언어 모델(LLM)을 위한 필수 안전성 벤치마크인 NESSiE를 소개합니다. NESSiE는 정보 보안 및 접근 보안과 관련된 최소한의 테스트 케이스만으로도, 작업의 낮은 복잡성을 고려했을 때 존재해서는 안 되는 안전성 관련 실패를 드러냅니다. NESSiE는 언어 모델 안전성을 위한 가벼우면서도 사용하기 쉬운 정성 검증(sanity check)을 목적으로 하므로, 일반적인 안전성을 보장하기에는 충분하지 않습니다. 그러나 본 논문에서는 이 테스트를 통과하는 것이 어떤 배포에도 필수적인 조건이라고 주장합니다. 그럼에도 불구하고, 최첨단 LLM 조차도 NESSiE에서 100% 성공률을 달성하지 못하여, 적대적 공격이 없는 상황에서도 언어 모델 안전성의 필수 조건을 충족하지 못하고 있습니다. 우리가 제안하는 Safe & Helpful(SH) 메트릭은 이 두 가지 요구 사항을 직접 비교할 수 있게 하여, 모델들이 안전함보다는 도움이 되는 쪽으로 편향되어 있음을 보여줍니다. 또한, 일부 모델에서 추론 기능을 비활성화하거나, 특히 무해한 주의 분산 컨텍스트가 모델 성능을 저하시킨다는 사실을 추가로 발견했습니다. 전반적으로, 우리의 결과는 이러한 모델들을 자율 에이전트로 실제 환경에 배포할 때 발생하는 중대한 위험을 강조합니다. 우리는 데이터셋, 패키지 및 플로팅 코드를 공개합니다.
비전-언어-행동 모델(VLAs)은 물리적 AI의 핵심 패러다임으로 부상하며 자율 주행 차량, 로봇, 스마트 공간에 점차 더 많이 배포되고 있습니다. 이러한 자원이 제한된 온디바이스 환경에서는 적합한 대형 언어 모델(LLM) 백본 선택이 중요한 과제입니다: 모델은 정확도와 엄격한 추론 지연 시간 및 하드웨어 효율성 제약 조건 사이의 균형을 유지해야 합니다. 이로 인해 하드웨어-소프트웨어 공동 설계는 각 하드웨어 플랫폼에 맞춤형 아키텍처 솔루션이 요구되는 온디바이스 LLM 배포에 있어 게임 체인저가 되는 필수 요구사항이 되었습니다. 우리는 모델 정확도와 추론 성능을 함께 포착하는 하드웨어 공동 설계 법칙을 제안합니다. 구체적으로, 우리는 훈련 손실을 아키텍처 하이퍼파라미터의 명시적 함수로 모델링하고, 루프라인 모델링을 통해 추론 지연 시간을 특성화합니다. 우리는 NVIDIA Jetson Orin에서 1,942개의 후보 아키텍처를 실증적으로 평가하고, 아키텍처와 훈련 손실의 관계를 나타내는 스케일링 법칙에 적합하도록 선택된 170개 모델을 각각 100억 토큰씩 훈련시켰습니다. 이 스케일링 법칙과 지연 시간 모델링을 결합함으로써, 우리는 직접적인 정확도-지연 시간 대응 관계를 수립하고 하드웨어 공동 설계 LLM을 위한 파레토 프론티어를 확인합니다. 우리는 더 나아가 아키텍처 탐색을 정밀도와 성능에 대한 공동 최적화 문제로 공식화하여 산업용 하드웨어 및 애플리케이션 예산 하에서 실현 가능한 설계 영역을 도출합니다. 우리의 접근 방식은 아키텍처 선택 기간을 수개월에서 수일로 단축합니다. 목표 하드웨어에서 Qwen2.5-0.5B와 동일한 지연 시간으로, 우리의 공동 설계 아키텍처는 WikiText-2에서 19.42% 더 낮은 퍼플렉서티를 달성합니다. 우리가 알기로, 이는 온디바이스 LLM 배포 분야에서 하드웨어 공동 설계 스케일링 법칙을 위한 최초의 원칙적이고 실무적인 프레임워크입니다. 우리는 코드와 관련 체크포인트를 공개할 예정입니다.
대규모 언어 모델(LLM)의 책임 있는 배포를 위해서는 안전성 정렬이 필수적입니다. 그러나 기존 접근법은 모델 패밀리 전체에 걸쳐 갱신, 감사 및 유지보수 비용이 많이 드는 고중량 미세 조정에 의존하는 경우가 많습니다. 완전 미세 조정은 상당한 계산 및 저장 오버헤드를 초래하는 반면, LoRA와 같은 매개변수 효율적 방법은 효율성을 안전성 향상의 불일치와 설계 선택에 대한 민감도와 맞바꿉니다. 회로 차단기와 같은 안전성 개입 메커니즘은 모델 가중치를 수정하지 않고 안전하지 않은 출력을 줄이지만, 안전성 행동을 지배하는 내부 표현을 직접적으로 형성하거나 보존하지는 않습니다. 이러한 한계는 모델이 빈번히 진화하거나 새로운 정책과 도메인에 적응해야 하는 환경에서 특히 신속하고 안정적인 안전성 업데이트를 저해합니다. 본 논문에서는 모델의 나머지 부분을 고정한 상태에서 안전성 관련 뉴런의 소수 하위 집합만 선택적으로 적응시켜 거부 행동을 강화하는 경량 구조 인식 안전성 정렬 프레임워크인 NeST를 제시합니다. NeST는 기능적으로 일관된 안전성 뉴런을 클러스터링하고 각 클러스터 내에서 공유 업데이트를 적용함으로써 매개변수 업데이트를 안전성 행동의 내부 조직 구조와 정렬시켜, 광범위한 모델 수정이나 추론 시점 오버헤드 없이 표적화되고 안정적인 안전성 적응을 가능하게 합니다. 우리는 NeST를 완전 미세 조정, LoRA 기반 미세 조정, 회로 차단기라는 세 가지 주요 기준선과 다중 모델 패밀리 및 크기에 걸친 10개의 오픈 가중치 LLM에서 비교 평가했습니다. 평가된 모든 모델에서 NeST는 평균 공격 성공률을 44.5%에서 4.36%로 감소시켜 안전하지 않은 생성물이 평균 90.2% 줄어들었으며, 평균적으로 단 44만 개의 학습 가능 매개변수만을 필요로 했습니다. 이는 완전 미세 조정 대비 업데이트된 매개변수 수가 17,310배 감소하고 LoRA 대비 9.25배 감소한 수치이며, 정렬을 위한 더 강력한 안전성 성능을 일관되게 달성했습니다.
검증 가능한 보상 강화학습(RLVR)은 추론 과제에서 강력한 효과를 입증했지만, LLM 정렬과 같이 정답 검증기가 존재하지 않는 비검증 가능 영역에 직접 적용할 수는 없습니다. 본 연구에서는 참조 출력을 활용하는 LLM 평가자가 소프트 '검증자' 역할을 수행함으로써 이러한 격차를 해소할 수 있는지 탐구합니다. 먼저, 참조 출력을 활용해 LLM 정렬을 위한 LLM 기반 평가자의 성능을 향상시키는 평가 프로토콜을 설계합니다. 포괄적인 실험을 통해, 최신 프론티어 모델의 참조 출력을 활용하면 성능이 낮은 LLM 평가자의 정확도가 크게 개선됨을 확인했습니다. 또한 고품질(인간이 작성한) 참조 출력은 강력한 LLM 평가자의 성능 향상에도 기여합니다. 이러한 개선된 평가자를 바탕으로, 참조 출력을 활용한 LLM 평가자가 자기 개선을 위한 판단 기준으로 사용되는 정렬 튜닝 과정에서 고품질 참조 출력의 유용성을 입증합니다. 참조 출력을 활용한 자기 개선 방식은 참조 출력에 대한 직접적인 SFT(지도 미세 조정)와 참조 출력 없이 평가자를 활용한 자기 개선 방식보다 모두 우수한 성능을 보이며, 강력한 미세 조정된 보상 모델인 ArmoRM을 활용한 학습 결과에 버금가는 성능을 달성했습니다. 구체적으로, Llama-3-8B-Instruct 모델을 사용한 우리 방법은 AlpacaEval과 Arena-Hard에서 각각 73.1%, 58.7%의 성능을, Qwen2.5-7B 모델을 사용했을 때는 각각 70.0%, 74.1%의 성능을 기록했습니다. 이는 AlpacaEval/Arena-Hard 기준 SFT蒸馏 대비 평균 절대增益 +20.2/+17.1점, 참조 출력 없는 자기 개선 방식 대비 +5.3/+3.6점에 해당하는 향상입니다. 이러한 결과는 참조 출력 기반 LLM 평가자를 활용하여 비검증 가능 영역에서도 효과적인 LLM 사후 훈련을 가능하게 할 잠재력을 시사합니다.
스테레오 깊이 추정은 수중 로봇 인식의 핵심 기술이지만, 파장에 따른 빛의 감쇠, 산란 및 굴절로 인한 심각한 도메인 변화에 취약합니다. 최근 연구에서는 수중 환경 적응을 위해 GRU 기반 반복 정제 방식을 활용하는 모노큘러 파운데이션 모델을 도입하고 있습니다. 그러나 GRU의 순차적 게이팅과 지역적 합성곱 커널은 장거리 시차 전파를 위해 다중 반복을 필요로 하여, 큰 시차와 무질 텍스처 영역이 많은 수중 환경에서 성능이 제한됩니다. 본 논문에서는 기존 ConvGRU 업데이터를 선택적 상태 공간 모델 기반의 새로운 ConvSS2D 연산자로 대체하는 StereoAdapter-2를 제안합니다. 제안 연산자는 에피폴라 기하학과 자연스럽게 정렬되면서 수직 구조 일관성을 포착하는 4방향 스캐닝 전략을 채택하여, 선형 계산 복잡도로 단일 업데이트 단계 내에서 효율적인 장거리 공간 전파를 가능하게 합니다. 더불어 의미론적 스타일 변환과 기하학적 일관성 신시점 합성을 결합한 2단계 생성 파이프라인을 통해 다양한 베이스라인, 감쇠 계수 및 산란 매개변수를 포함한 대규모 합성 수중 스테레오 데이터셋인 UW-StereoDepth-80K를 구축했습니다. StereoAdapter에서 계승된 동적 LoRA 적응 기법과 결합된 우리의 프레임워크는 수중 벤치마크에서 TartanAir-UW 기준 17%, SQUID 기준 7.2% 향상된 최첨단 제로샷 성능을 달성하였으며, BlueROV2 플랫폼에서의 실제 환경 검증을 통해 접근법의 강건성을 입증했습니다. 코드: https://github.com/AIGeeksGroup/StereoAdapter-2. 웹사이트: https://aigeeksgroup.github.io/StereoAdapter-2.