Abstract
In this paper, we introduce the technology to convert a single human image into a fashion show animation video clip. The technology can help the customers confirm the dynamic fitting result when combined with the virtual try on technique as well as the interesting experience to a normal person of being a fashion model. We developed an extended technique of full human 2D to 3D inverse modeling based on SMPLify human body inverse modeling technique, and a rigged model animation method. The 3D shape deformation of the full human from the body model was performed by 2 part deformation in the image domain and reconstruction using the estimated depth information. The quality of resultant animation videos are made to be publically available for evaluation. We consider it is a promising approach for commercial application when supplemented with the post - processing technology such as image segmentation technique, mapping technique and restoration technique of obscured area.
본 논문은 단일 이미지를 패션쇼 워킹 영상으로 변환하는 기술을 소개한다. 일반인이 가상으로 패션모델이 되어 보는 흥미로운 응용일 뿐 아니라, 나아가 가상 착용기술과 함께 결합하게 되면 의상착용결과의 동적인 확인이 가능한 기술이다. 본 논문에서 사용한 기술은 이미지에서 3차원 인간신체 모델을 추정 복원해 주는 SMPLify 기법에 기초하여, 인체 모델에서 의상을 포함한 사람으로 모델을 확장하고, 이에 애니메이션 기법을 적용하여 구현되었다. 인체와 의상을 포한한 사람의 3차원 모델은 2차원 이미지 상에서 기하변형과 깊이정보를 사용하여 복원하였다. 패션 데이터 셋에 적용해 본 결과 정자세의 경우에는 성공적인 수준의 결과를 보였으나, 상용수준의 성능을 위해서는 이미지의 분할 기술, 매핑기술 및 가려진 영역의 복원기술 등 선 후처리 기술에 보완이 필요한 것으로 확인되었다.