ChatPaper.aiChatPaper

ROOM: フォトリアルな医療データセット生成のための物理ベース連続体ロボットシミュレータ

ROOM: A Physics-Based Continuum Robot Simulator for Photorealistic Medical Datasets Generation

September 16, 2025
著者: Salvatore Esposito, Matías Mattamala, Daniel Rebain, Francis Xiatian Zhang, Kevin Dhaliwal, Mohsen Khadem, Subramanian Ramamoorthy
cs.AI

要旨

連続体ロボットは、複雑な肺気道へのアクセスと標的型介入を可能にすることで、気管支鏡検査手技を進化させています。しかし、その開発は現実的なトレーニングおよびテスト環境の不足によって制限されています。実際のデータは倫理的制約や患者の安全上の懸念から収集が困難であり、自律アルゴリズムの開発には現実的な画像と物理的フィードバックが必要です。本論文では、ROOM(Realistic Optical Observation in Medicine)を紹介します。これは、フォトリアリスティックな気管支鏡トレーニングデータを生成するための包括的なシミュレーションフレームワークです。患者のCTスキャンを活用することで、我々のパイプラインは、現実的なノイズや光の鏡面反射を含むRGB画像、メトリック深度マップ、表面法線、オプティカルフロー、および医療関連スケールでのポイントクラウドを含む多モーダルセンサーデータをレンダリングします。ROOMによって生成されたデータは、医療ロボティクスにおける2つの代表的なタスク――多視点姿勢推定と単眼深度推定――において検証され、最先端の手法がこれらの医療環境に適用するために克服すべき多様な課題を実証しています。さらに、ROOMが生成するデータを使用して既存の深度推定モデルを微調整することで、これらの課題を克服できることを示し、ナビゲーションなどの他の下流アプリケーションも可能にします。我々は、ROOMが臨床環境では捕捉が困難な多様な患者解剖学的構造と手技シナリオにわたる大規模なデータ生成を可能にすることを期待しています。コードとデータ: https://github.com/iamsalvatore/room。
English
Continuum robots are advancing bronchoscopy procedures by accessing complex lung airways and enabling targeted interventions. However, their development is limited by the lack of realistic training and test environments: Real data is difficult to collect due to ethical constraints and patient safety concerns, and developing autonomy algorithms requires realistic imaging and physical feedback. We present ROOM (Realistic Optical Observation in Medicine), a comprehensive simulation framework designed for generating photorealistic bronchoscopy training data. By leveraging patient CT scans, our pipeline renders multi-modal sensor data including RGB images with realistic noise and light specularities, metric depth maps, surface normals, optical flow and point clouds at medically relevant scales. We validate the data generated by ROOM in two canonical tasks for medical robotics -- multi-view pose estimation and monocular depth estimation, demonstrating diverse challenges that state-of-the-art methods must overcome to transfer to these medical settings. Furthermore, we show that the data produced by ROOM can be used to fine-tune existing depth estimation models to overcome these challenges, also enabling other downstream applications such as navigation. We expect that ROOM will enable large-scale data generation across diverse patient anatomies and procedural scenarios that are challenging to capture in clinical settings. Code and data: https://github.com/iamsalvatore/room.
PDF02September 17, 2025