초록
본 논문은 한 장의 영상 속에 포함되어 있는 물체들이 외관상의 3차원 운동이 가능하도록 하는 방법을 제시한다. 이전 연구들은 여러 장의 영상으로부터 영상 기반 모델링 기법들을 이용하여 3차원 모델을 생성하거나 소실점을 이용한 카메라 보정을 통하여 장면을 입방체로 모델링하여 3차원 모델을 생성하는 방식으로 접근하였다. 그러나 본 논문에서는 장면의 기하학적 정보나 카메라 보정 없이 장면 속 물체의 영상 기반 운동(image-based motion)의 가능성을 제시한다. 구현된 시스템은 영상을 시점에 관한 사영 평면으로 생각하고 사용자에 의해 입력된 선과 점의 정보를 이용하여 사영된 3차원 물체의 2차원 모양을 모델링한다. 그리고 모델링된 물체는 3차원 운동을 하기 위한 지역 좌표계로서 소실점을 이용한다.
This paper addresses a method of enabling objects in an image to have apparent 3D motion. Many researchers have solved this issue by reconstructing 3D model from several images using image-based modeling techniques, or building a cube-modeled scene from camera calibration using vanishing points. This paper, however, presents the possibility of image-based motion without exact 3D information of scene geometry and camera calibration. The proposed system considers the image plane as a projective plane with respect to a view point and models a 2D frame of a projected 3D object using only lines and points. And a modeled frame refers to its vanishing points as local coordinates when it is transformed.