번역이 포함된 일일 선별된 AI 연구 논문
Radiance Field 방법은 최근 다수의 사진이나 비디오로 캡처된 장면의 새로운 시점 합성에 혁신을 가져왔습니다. 그러나 높은 시각적 품질을 달성하기 위해서는 여전히 학습 및 렌더링 비용이 많이 드는 신경망이 필요하며, 최근의 더 빠른 방법들은 필연적으로 속도와 품질을 교환해야 합니다. 무한하고 완전한 장면(고립된 객체가 아닌)과 1080p 해상도 렌더링을 위해 현재 어떤 방법도 실시간 디스플레이 속도를 달성할 수 없습니다. 우리는 최첨단 시각적 품질을 유지하면서 경쟁력 있는 학습 시간을 확보하고, 특히 1080p 해상도에서 고품질 실시간(>= 30 fps) 새로운 시점 합성을 가능하게 하는 세 가지 핵심 요소를 소개합니다. 첫째, 카메라 캘리브레이션 중 생성된 희소 점들로부터 시작하여, 우리는 빈 공간에서 불필요한 계산을 피하면서도 장면 최적화를 위한 연속적인 체적 Radiance Field의 바람직한 특성을 보존하는 3D 가우시안으로 장면을 표현합니다. 둘째, 우리는 3D 가우시안의 교차 최적화/밀도 제어를 수행하며, 특히 이방성 공분산을 최적화하여 장면의 정확한 표현을 달성합니다. 셋째, 우리는 이방성 스플래팅을 지원하고 학습을 가속화하며 실시간 렌더링을 가능하게 하는 빠른 가시성 인식 렌더링 알고리즘을 개발합니다. 우리는 여러 확립된 데이터셋에서 최첨단 시각적 품질과 실시간 렌더링을 입증합니다.
아첨(Sycophancy)은 모델이 객관적으로 올바르지 않은 경우에도 인간 사용자의 관점에 맞춰 응답을 조정하는 바람직하지 않은 행동입니다(예: 사용자가 자신이 진보적이라고 밝히면 진보적 관점을 따르는 것). 본 논문에서는 언어 모델에서의 아첨 행동의 보편성을 연구하고, 이러한 행동을 줄이기 위한 간단한 합성 데이터 개입 방안을 제안합니다. 먼저, 정답이 없는 진술(예: 정치)에 대한 의견을 묻는 세 가지 아첨 과제(Perez et al., 2022)에서, 모델 규모 확장과 지시 튜닝이 540B 파라미터까지의 PaLM 모델에서 아첨 행동을 크게 증가시킨다는 것을 관찰했습니다. 둘째, 객관적으로 잘못된 간단한 덧셈 진술에 대한 아첨 평가를 확장한 결과, 언어 모델이 이러한 진술이 틀렸다는 것을 알고 있음에도 불구하고 사용자가 동의하면 여전히 그에 동의한다는 것을 발견했습니다. 아첨을 줄이기 위해, 공개된 NLP 과제를 활용하여 모델이 이러한 과제에 대한 사용자의 의견에 강건하도록 유도하는 간단한 합성 데이터 개입 방안을 제시합니다. 이러한 데이터를 경량 파인튜닝 단계에 추가하면 보류된 프롬프트에서의 아첨 행동을 크게 줄일 수 있습니다. 합성 데이터 생성 코드는 https://github.com/google/sycophancy-intervention에서 확인할 수 있습니다.
경고: 본 논문은 부적절하거나 불쾌감을 줄 수 있는 내용을 포함하고 있습니다. 생성 모델이 다양한 응용 분야에서 공공 사용 가능해짐에 따라, 이러한 모델의 취약점을 테스트하고 분석하는 것이 우선 과제로 대두되었습니다. 본 연구에서는 주어진 모델을 평가하고 안전하지 않거나 부적절한 콘텐츠 생성에 대한 취약점을 노출시키는 자동화된 레드 팀링 프레임워크를 제안합니다. 우리의 프레임워크는 피드백 루프 내에서 인컨텍스트 학습을 활용하여 모델을 레드 팀링하고 안전하지 않은 콘텐츠 생성을 유발합니다. 텍스트-이미지 모델에 대한 효과적이고 다양한 적대적 프롬프트를 자동으로 학습하기 위해 다양한 인컨텍스트 공격 전략을 제안합니다. 실험 결과, 제안된 전략은 안전 기능이 강화된 Stable Diffusion(SD) 모델에서도 기존 접근법에 비해 취약점을 훨씬 더 효과적으로 노출시키는 것으로 나타났습니다. 또한, 제안된 프레임워크는 텍스트-텍스트 모델의 레드 팀링에도 효과적이며, 이전에 보고된 수치에 비해 유의미하게 높은 유해 응답 생성률을 보여줍니다.
CLIP과 같은 대규모 사전 학습 비전-언어 모델은 제로샷 분류에서 뛰어난 성능을 보여주었으며, 예를 들어 ImageNet에서 어떠한 예시도 보지 않고도 76.3%의 top-1 정확도를 달성함으로써 레이블이 없는 데이터를 가진 많은 작업에 잠재적인 이점을 제공할 수 있음을 입증했습니다. 그러나 CLIP을 다운스트림 대상 도메인에 적용할 때, 시각 및 텍스트 도메인 간의 격차와 크로스 모달리티 불일치가 모델 성능에 큰 영향을 미칠 수 있습니다. 이러한 문제를 해결하기 위해, 우리는 소스 데이터나 대상 레이블 데이터가 필요 없는 최초의 소스 프리 도메인 적응 방법인 ReCLIP을 제안합니다. ReCLIP은 먼저 불일치된 시각-텍스트 임베딩을 완화하고 가짜 레이블을 학습하기 위한 투영 공간을 학습한 다음, 가짜 레이블을 사용하여 크로스 모달리티 자기 학습을 통해 시각 및 텍스트 인코더를 업데이트하고, 레이블을 정제하며, 도메인 격차와 불일치를 반복적으로 줄입니다. 광범위한 실험을 통해, ReCLIP이 22개의 이미지 분류 벤치마크에서 CLIP의 평균 오류율을 30.17%에서 25.06%로 감소시킴을 입증했습니다.
저작권이 있거나 제한된 데이터를 사용하여 언어 모델(LM)을 훈련시키는 것의 합법성은 현재 치열한 논쟁 중에 있습니다. 그러나 우리가 보여주듯이, 저위험 텍스트(예: 저작권이 만료된 책이나 정부 문서)만으로 훈련된 모델은 그 크기와 도메인 범위가 제한적이기 때문에 성능이 크게 저하됩니다. 우리는 이러한 위험과 성능 간의 균형을 추론 과정에서 관리하는 새로운 언어 모델인 SILO를 제안합니다. SILO는 (1) 공개 라이선스 코퍼스(OLC)라는 새로운 코퍼스(228B 토큰의 퍼블릭 도메인 및 허가된 라이선스 텍스트로 구성)를 기반으로 파라메트릭 언어 모델을 훈련시키고, (2) 추론 중에만 쿼리되는 보다 일반적이고 쉽게 수정 가능한 비파라메트릭 데이터스토어(예: 저작권이 있는 책이나 뉴스)를 추가하여 구축됩니다. 이 데이터스토어는 고위험 데이터를 훈련 없이 사용할 수 있게 하며, 문장 수준의 데이터 출처 추적을 지원하고, 데이터 생산자가 콘텐츠를 데이터스토어에서 제거함으로써 모델에서 제외될 수 있도록 합니다. 이러한 기능은 미국의 공정 사용 원칙(Fair Use Doctrine) 및 유럽 연합의 GDPR과 같은 데이터 사용 규정 준수를 촉진할 수 있습니다. 우리의 실험 결과, 파라메트릭 언어 모델은 OLC에서 다루지 않는 도메인에서 어려움을 겪는 것으로 나타났습니다. 그러나 데이터스토어에 접근하면 도메인 외 성능이 크게 향상되어, 주로 고위험 텍스트로 구성된 더 다양한 코퍼스인 Pile로 훈련된 언어 모델과의 성능 격차를 90%까지 좁힐 수 있었습니다. 또한 우리는 어떤 비파라메트릭 접근 방식이 가장 효과적인지, 남아 있는 오류가 어디에 있는지, 그리고 데이터스토어 크기에 따라 성능이 어떻게 확장되는지 분석했습니다. 우리의 결과는 법적 위험을 완화하면서도 고품질의 언어 모델을 구축하는 것이 가능함을 시사합니다.