ChatPaper.aiChatPaper

SANeRF-HQ: 고품질 NeRF를 위한 세그멘테이션 애니씽

SANeRF-HQ: Segment Anything for NeRF in High Quality

December 3, 2023
저자: Yichen Liu, Benran Hu, Chi-Keung Tang, Yu-Wing Tai
cs.AI

초록

최근 Segment Anything Model(SAM)은 제로샷 세그멘테이션의 놀라운 능력을 보여주었고, NeRF(Neural Radiance Fields)는 새로운 시점 합성을 넘어 다양한 3D 문제를 해결하는 방법으로 인기를 얻고 있다. 이 두 방법을 3D 세그멘테이션에 통합하려는 초기 시도가 존재하지만, 복잡한 시나리오에서 객체를 정확하고 일관되게 세그멘테이션하는 데 어려움을 겪고 있다. 본 논문에서는 주어진 장면에서 모든 객체의 고품질 3D 세그멘테이션을 달성하기 위해 Segment Anything for NeRF in High Quality(SANeRF-HQ)를 소개한다. SANeRF-HQ는 사용자 제공 프롬프트에 의해 안내되는 개방형 세계 객체 세그멘테이션을 위해 SAM을 활용하고, 다양한 시점에서 정보를 집계하기 위해 NeRF를 활용한다. 앞서 언급한 문제를 극복하기 위해, 집계 과정에서 세그멘테이션 경계의 정확성을 높이기 위해 밀도 필드와 RGB 유사성을 사용한다. 세그멘테이션 정확성에 중점을 두어, 고품질의 실측 데이터가 제공되거나 수동으로 주석이 달린 여러 NeRF 데이터셋에서 본 방법을 정량적으로 평가한다. SANeRF-HQ는 이전의 최신 NeRF 객체 세그멘테이션 방법 대비 상당한 품질 개선을 보여주며, 객체 위치 지정에 더 높은 유연성을 제공하고, 여러 시점에서 더 일관된 객체 세그멘테이션을 가능하게 한다. 추가 정보는 https://lyclyc52.github.io/SANeRF-HQ/에서 확인할 수 있다.
English
Recently, the Segment Anything Model (SAM) has showcased remarkable capabilities of zero-shot segmentation, while NeRF (Neural Radiance Fields) has gained popularity as a method for various 3D problems beyond novel view synthesis. Though there exist initial attempts to incorporate these two methods into 3D segmentation, they face the challenge of accurately and consistently segmenting objects in complex scenarios. In this paper, we introduce the Segment Anything for NeRF in High Quality (SANeRF-HQ) to achieve high quality 3D segmentation of any object in a given scene. SANeRF-HQ utilizes SAM for open-world object segmentation guided by user-supplied prompts, while leveraging NeRF to aggregate information from different viewpoints. To overcome the aforementioned challenges, we employ density field and RGB similarity to enhance the accuracy of segmentation boundary during the aggregation. Emphasizing on segmentation accuracy, we evaluate our method quantitatively on multiple NeRF datasets where high-quality ground-truths are available or manually annotated. SANeRF-HQ shows a significant quality improvement over previous state-of-the-art methods in NeRF object segmentation, provides higher flexibility for object localization, and enables more consistent object segmentation across multiple views. Additional information can be found at https://lyclyc52.github.io/SANeRF-HQ/.
PDF81December 15, 2024