네비게이션을 위한 문자영상기반의 영상매칭 방법

Text Cues-based Image Matching Method for Navigation

  • 박안진 (숭실대학교, 정보과학대학, 미디어학과, HCI Lab.) ;
  • 정기철 (숭실대학교, 정보과학대학, 미디어학과, HCI Lab.)
  • Park, An-Jin (HCI Lab., School of Media, College of Information Science, Soongsil University.) ;
  • Jung, Kee-Chul (HCI Lab., School of Media, College of Information Science, Soongsil University.)
  • 발행 : 2005.11.01

초록

유비쿼터스 시대가 다가오면서, 많은 사람들은 모르는 장소에서 자신의 위치와 목적지까지의 경로에 대한 정보를 알고 싶어할 것이다. 기존의 네비게이션(navigation)을 위한 비전기술은 고차원과 저차원 특징값을 이용하였다. 텍스춰 정보, 색상 히스토그램과 같은 저차원 특징값은 영상의 특징을 정확하게 표현하기 어려우며, 마커와 같은 고차원 정보는 실험환경을 구축하는데 어려움이 있다. 우리는 기존 저/고차원의 특징값 대신, 영상의 특징을 표현하고 인덱싱(indexing)하기 위한 유용한 정보를 많이 포함하고 있으며, 실제환경에서 널리 분포되어있는 중차원 특징값인 문자영상을 이용한다. 문자영상추출은 MLP(Multi-layer perceptron)와 CAMShift알고리즘을 결합한 방법을 이용하며, 서로 다른 장소지만 같은 문자를 가진 곳에서 인식을 수행하기 위해 문자영상의 크기와 기울기를 기반으로 한 영상 검색공간을 대상으로 영상매칭을 수행한다. 실험에서 문자영상을 포함하는 직사각형 검색공간으로 인해 다양한 크기와 기울기에서 높은 인식률을 보이며, 간단한 계산으로 빠른 수행시간을 가진다.

키워드