Paper/Neural rendering

GS2Mesh: Surface Reconstruction from Gaussian Splatting via Novel Stereo Views

침닦는수건 2024. 12. 13. 15:35
반응형

내 맘대로 Introduction

 

3DGS로부터 어떻게 mesh를 얻을 수 있을지 고민한 논문. baseline을 SuGaR로 잡은 만큼 어떤 방법론으로 Mesh를 만들었을지 굉장히 궁금했다. 약간의 아쉽게도 내용은 3DGS 복원 -> stereo view 렌더링 -> 별도로 feature matching 후 depthmap building -> TSDF recon 이다. 

 

3DGS를 알고리즘적으로 변형했다기 보다 잘 학습된 3DGS로부터 stereo 이미지를 얻어서 시점 별 depth를 얻어낸다는, 어떻게 보면 활용에 관한 논문이라고 볼 수 있다. 

 

stereo view 렌더링부터, 데이터 정리 feature matching, depthmap building, TSDF fusion 등의 과정을 얼마나 빠르게 자동화했느냐에 따라 속도는 달라지는 것이니 저 위에 1 hour로 빨라졌다는 것도 큰 의미가 있는 얘긴지 모르겠다. 

 

메모

1) 3DGS 학습
2) 학습 때 사용한 카메라 위치 평행 이동 시켜서 stereo pair 생성 + 렌더링
3) depth map 만들기
4) TSDF fusion

 


사실 큰 내용 없다. 이 부분은.

1) COLMAP으로 카메라 자세 찾고 
2) 3DGS (2D gaussian으로 찾았다고 하는데 큰 이유는 없는듯)

3) baseline b 만큼 옮겨서 stereo pair 생성
feature matching은 여러개 써본 결과

DLNR이 가장 좋았다고 함

이게 DTU 데이터셋같이 open data에서 테스트한 것이라 해당 데이터 distribution과 비슷한 데이터로 학습한 모델이 제일 잘나왔을 확률이 있다.

따라서 모든 상황에서 DLNR이 좋다고 볼 순 없을 듯.
---
disparity sanity check로 masking 추가.

depth가 baseline 4배 ~20배 범위 안일 때만 사용

baseline이 stereo로 구하는 depth 범위를 직접 결정하긴 하니까 합리적인 필터
시점 별 depth가 확보된 상황이니 TSDF fusion으로 mesh로 바꾼다. 

marching cube 당연히 사용.


이젠 DTU에서 비교하는게 의미가 있나 싶다.

반응형