초록
의류 검색 분야는 의류의 비정형 특성으로 인해 매우 어려운 분야로 인식 오류 및 연산량을 줄이기 위한 노력이 많이 진행되어 왔으나 이를 위한 학습 및 인식 과정 전체에 대한 구체적인 사례가 없고 일부 관련 기술들은 아직 많은 한계를 보이고 있다. 이에 본 논문에서는 입력된 영상에서 사람 객체를 파악하여 착용한 의상으로부터 색상, 무늬, 질감 등 의상이 가질 수 있는 특성 정보를 분석하여, 이를 분류하고 검색하는 방법에 대한 전 과정을 구체적으로 보였다. 특히, 의류의 패턴 및 무늬 등을 구분하기 위한 비정형 의류 검색을 위한 LBPROT_35 디스크립터를 제안하였다. 이 제안 방식은 영상의 통계적 특징을 분석하는 기존의 LBP_ROT(Local Binary Pattern with ROTation-invariant) 방식에 추가로 원 영상에 크기 변화가 생겨도 검색해 낼 수 있도록 하는 특성이 추가된 것이며, 이를 통해 비정형 의류 검색 시 옷이 회전되어 있거나 스케일에 변화가 있어도 높은 검색율을 얻을 수 있게 되었다. 또한 색 공간을 11개의 구간으로 양자화 하는 방식을 이용하여 컬러 분류를 구현하여, 의류 검색에 있어서 중요한 컬러 유사성을 상실하지 않도록 하였다. 한편, 인터넷 상의 의류 사진들로부터 추출한 총 810장의 트레이닝 이미지로 데이터베이스를 구축하고 이들 중 36장을 질의영상으로 테스트 한 결과, 94.4%의 인식률을 보이는 등 Dense-SIFT 대비 높은 인식률을 보였다.
The field of searching clothing, which is very difficult due to the nature of the informal sector, has been in an effort to reduce the recognition error and computational complexity. However, there is no concrete examples of the whole progress of learning and recognizing for cloth, and the related technologies are still showing many limitations. In this paper, the whole process including identifying both the person and cloth in an image and analyzing both its color and texture pattern is specifically shown for classification. Especially, deformable search descriptor, LBPROT_35 is proposed for identifying the pattern of clothing. The proposed method is scale and rotation invariant, so we can obtain even higher detection rate even though the scale and angle of the image changes. In addition, the color classifier with the color space quantization is proposed not to loose color similarity. In simulation, we build database by training a total of 810 images from the clothing images on the internet, and test some of them. As a result, the proposed method shows a good performance as it has 94.4% matching rate while the former Dense-SIFT method has 63.9%.