Abstract
The generalized symmetry transform evaluates symmetry without segmentation and extracts regions of interest in an image by combining locality and reflectional symmetry The demand that the symmetry transform be local is reflected by the distance weight function. When calculating large regions-of-interest, we should select a large standard deviation of distance weight function. But such a large standard deviation makes the execution time increase in the second power of r, which is a radius of search area. In this paper we propose modified scan line based GST with selectively directional attention to improve time complexity The symmetry map of our proposed GST is found to be very similar to that of the existing GST. However the computation time of the proposed GST increases linearly with respect to r because our proposed GST evaluates symmetry between a pair of edge pixels along the scan lines. The GST computation decreases considerably when the proposed GST is peformed with selectively directional attention in case of large r. Several experiments in this paper demonstrate the time efficiency and the usefulness of our proposed GST.
일반화 대칭 변환 (generalized symmetry transform, GST)은 주어진 영상에서 사전 분할이 없이 국부성과 반사 대칭성을 결합하여 대칭을 측정하고 관심 영역을 추출한다. GST의 거리 가중치 함수에서 국부적인 대칭성이 반영되며 이 함수의 표준 편차 u에 의해 GST의 수행 범위가 조절된다. 넓은 관심영역을 추출하기 위해 반지름 r이 큰 검색영역 내에서의 대칭성이 추출될 필요가 있다. 이에 따라서 GST의 수행시간은 r에 따라 2차적으로 증가하게 된 본 논문에서는 이를 개선하기 위해 선택적 방향 주의를 가지는 수정된 스캔라인 GST를 제안한다. 제안된 GST는 기존의 GST와 유사한 대칭 특성을 추출하지만 선택적 방향의 기울기만을 고려한 스캔라인 위의 에지 화소쌍에서 GST를 수행함으로써 r에 따라서 이의 수행시간이 선형적으로 증가된다 특히 r이 큰 경우에 선택적 방향에 대해서만 적용하면 기존의 GST의 계산량이 비대해지는 단점을 보완해 줄 수 있다. 제안된 GST가 기존의 GST보다 시간적으로 효과적이며 유용하다는 것이 여러 종류의 영상에 대한 실험으로 확인되었다.