DOI QR코드

DOI QR Code

다중 통계기법을 이용한 고속 하프변환

Fast Hough Transform Using Multi-statistical Methods

  • Cho, Bo-Ho (Depart of Computer Engineering, Changwon National University) ;
  • Jung, Sung-Hwan (Depart of Computer Engineering, Changwon National University)
  • 투고 : 2016.04.05
  • 심사 : 2016.08.30
  • 발행 : 2016.10.30

초록

In this paper, we propose a new fast Hough transform to improve the processing time and line detection of Hough transform that is widely used in various vision systems. First, for the fast processing time, we reduce the number of features by using multi-statistical methods and also reduce the dimension of angle through six separate directions. Next, for improving the line detection, we effectively detect the lines of various directions by designing the line detection method which detects line in proportion to the number of features in six separate directions. The proposed method was evaluated with previous methods and obtained the excellent results. The processing time was improved in about 20% to 50% and line detection was performed better in various directions than conventional methods with experimental images.

키워드

1. 서 론

최근 멀티미디어 기술과 유무선 통신 기술의 눈부신 발전으로, 다양한 종류의 비전 센서(vision sensor)를 통하여 획득한 영상에서 기하학적 특징을 추출하려는 노력이 활발하다. 그 중 하프변환(Hough transform)은 획득한 영상에서 직선, 원, 타원 등을 검출하는 도구로서 널리 사용되고 있다. 하프변환은 획득한 영상에 잡음이 많거나, 검출하려는 직선의 일부가 감추어져 있거나 혹은 끊어진 경우에도 강건하게 직선을 검출하는 훌륭한 도구이다. 그러나 하프변환은 전처리 과정을 통하여 획득한 이진영상의 모든 특징점에 대해 공간변환을 하기 때문에 처리시간이 많이 소요되고, 영상에서 동일직선을 겹쳐서 검출하는 문제를 가지고 있다. 또한 영상에서 직선을 구성하는 특징점의 개수가 상대적으로 적은 주요한 직선을 검출하지 못하는 문제가 있다[1,2].

하프변환은 P. Hough[3]가 2차원 x, y좌표의 직선을 그 직선의 기울기와 y절편의 좌표로 공간변환시켜 검출하기 위해 제안하였다. R. Duda[4]는 P. Hough의 방법을 개선하기 위하여 직선을 극좌표의 법선의 길이(ρ)와 법선과 x축의 각도(θ)로 나타내어 θ와 ρ좌표로 공간변환시켜 직선을 검출하는 방법을 제안하였다. R. Duda의 방법은 P. Hough의 기울기 무한대 문제를 해결하였지만, 영상의 모든 특징점에 대한 공간변환의 처리시간이 많이 소요되는 문제가 있다. R. Duda의 문제를 해결하기 위하여 다양한 연구가 시도되었으며, 그 중 K. Chung[5]은 영상의 모든 특징점에서 기울기를 이용하여 각도를 구하고, 구한 모든 각도에 대한 히스토그램을 구성하여 영상에서 직선이 존재할 가능성이 높은 각도영역을 예측하여 하프변환의 처리시간을 개선하였다. 그리고 D. Fan[6]은 영상의 각 특징점에서 구한 각도를 직접 하프변환 수행에 사용하여 성능을 개선하는 방법을 제안하였다. 그러나 K. Chung 방법과 D. Fan 방법은 하프변환의 처리시간을 개선하는 소기의 목적은 달성하였지만, 영상에서 직선검출 성능은 오히려 기존의 R. Duda 방법에 미치지 못하는 경우가 발생한다.

따라서 본 논문에서는 하프변환의 처리시간 고속화와 직선의 효율적 검출을 위하여 다중 통계기법을 기반으로 한 새로운 하프변환 방법을 제안한다. 그 방법을 약술하면 다음과 같다. 1) 다양한 비전시스템을 통하여 획득한 영상에 전처리 과정을 거쳐 이진영상과 각도영상(angle image)을 획득한다. 2) 획득한 각도영상을 기반으로 층화추출(stratified sampling)[7]을 실시하여 이진영상의 특징점을 6개의 층(strata)으로 분류한다. 3) 분류된 6개의 각 층에서 특징점의 개수에 비례하도록 계통추출(systematic sampling)[7]을 적용하여 특징점을 표본 추출한다. 4) 각 층에서 표본으로 추출된 특징점을 그 특징점이 속한 층의 각도영역으로 하프변환을 수행하고 그 결과를 하프배열(accumulator)에 저장한다. 5) 영상에서의 직선검출은 각 층에 속한 특징점의 개수에 비례하여 그 층이 속한 각도영역의 하프배열에서 지역 최대값 좌표를 찾고, 그 좌표를 바탕으로 수행한다.

본 논문의 구성은 다음과 같다. 먼저 1장의 서론에 이어, 2장에서 관련연구에 대하여 살펴본다. 그리고 3장에서 본 논문의 제안방법에 대하여 자세히 기술하고, 4장에서 제안방법과 기존방법을 비교 분석한다. 끝으로 5장에서 결론을 서술하고 향후연구 과제를 제시한다.

 

2. 관련 연구

하프변환과 관련된 연구를 살펴보면 다음과 같다. 먼저 P. Hough[3]는 아원자 분자의 움직임을 감지하기 위하여 직선의 기울기와 y절편으로 공간변환하는 고전 하프변환 방법(classical Hough transform)을 제안하였다. 이 방법은 공간영역의 직선검출 문제를 변환영역에서 지역 최댓값을 찾는 문제로 단순화시켰다. 그러나 영상 내의 직선이 y축에 평행에 가까울 때 기울기가 무한대가 되어 변환영역을 컴퓨터 내에서 표현하기 어려운 문제가 발생한다. R. Duda[4]는 직선을 극좌표의 두 파라미터 즉, 좌표의 원점에서 직선까지의 법선인 ρ와 법선과 x축이 이루는 각도인 θ에 의하여 표현하고, θ와 ρ의 두 파라미터의 공간으로 변환을 수행하는 표준 하프변환 방법(standard Hough transform)을 제안하였다. 이 방법은 P. Hough의 변환영역의 범위문제를 해결할 수 있다. 그러나 처리시간이 많이 소요되고, 하프변환에 관여하는 특징점이 하프변환의 결과를 저장하는 하프배열의 여러 셀(cell)에 관계함으로써 영상에서 동일 직선을 겹쳐서 검출하는 문제가 발생한다.

그리고 K. Chung[5]은 k-레벨(level) 방향 히스토그램을 이용하여 영상에서 직선이 존재할 각도영역을 문턱치(threshold)를 이용하여 결정하고, 그 결정된 각도영역에 대해서 하프변환을 수행하여 처리시간을 개선하는 방법을 제안하였다. 이 방법은 히스토그램에 사용되는 문턱치를 사용자가 직접 결정해야 하고, 문턱치 이하의 주요 직선을 영상에서 검출하지 못하는 문제가 발생한다. D. Fan[6]은 영상의 각 특징점에서 기울기를 이용하여 각도를 구하고, 구한 각도를 직접 하프변환에 사용하여 하프변환의 처리시간을 개선하는 방법을 제안하였다. 이 방법은 하프변환의 처리시간을 대폭 개선할 수 있지만 각 특징점에서 구한 직선의 각도가 정확하지 않을 경우 직선검출 성능이 현저히 떨어지는 문제가 발생한다.

 

3. 제안 방법

본 논문에서는 하프변환의 처리시간 고속화와 직선검출 성능 향상을 위하여 층화추출과 계통추출을 이용한 방법을 Fig. 1과 같이 제안한다. 본 제안 방법은 크게 3가지 부분으로 나눌 수 있다. 1) 전처리 부분이다. 획득한 컬러영상을 전처리 과정을 거쳐 이진영상과 각도영상을 획득하는 부분이다. 2) 다중 통계기법을 적용하는 부분이다. 획득한 각도영상을 바탕으로 이진영상의 특징점을 6개의 층으로 분류하고, 분류된 각 층의 특징점을 표본으로 추출하는 부분이다. 3) 하프변환 수행과 직선검출 부분이다. 표본으로 추출된 특징점을 6개의 해당 각도영역을 바탕으로 하프변환을 수행하여 결과를 하프배열에 저장하고, 최종결과 하프배열에서 6개의 각 층의 특징점 비율에 따라 6개의 각도영역으로 직선을 검출하는 부분이다.

Fig. 1.Flowchart of proposed method.

3.1 전처리 수행

본 논문에서는 비전 시스템을 통하여 획득한 영상에서 이진영상과 각도영상을 획득하기 위하여 다음과 같은 전처리 과정을 거친다. 먼저 Fig. 2와 같이 획득한 원본영상(빌딩)을 NTSC (national television system committee)[8] 방법으로 명암도 영상으로 변환하고, 캐니 에지(Canny edge)[9] 검출기를 이용하여 이진영상을 획득한다.

Fig. 2.Acquisition of binary image: (a) Original image, (b) Gray image, (c) Binary image.

그리고 명암도 영상의 각 화소에 수식 (1)과 같이 x축과 y축 방향으로 미분하여 기울기를 구하고, 구한 기울기를 바탕으로 수식 (2)와 같이 각 화소에서 각도를 구한다[10]. 구한 각도의 영역은 -180°∼180° 이므로 이진영상을 바탕으로 특징점이 있는 화소에 대하여 수식 (3)을 적용하여 그 영역을 1°∼180°로 바이어스(bias)시켜 최종 각도영상을 획득한다[11].

여기서 gx, gy는 영상에서 임의의 좌표 (x, y)의 x축, y축 방향의 기울기이다.

여기서 γ(x, y)는 좌표(x, y)에서의 각도이고, -180°≤γ(x, y)≤180° 이다.

여기서 γ(x, y)는 영상에서 획득된 각도로서 그 범위가 -180° ≤ γ(x, y) ≤ 180° 이고, θ(x, y)는 범위 조정된 각도로서 그 범위는 1° ≤ θ(x, y) ≤ 180° 이다.

범위가 -180°∼180°인 각도영상의 일부분을 Fig. 3(a)에 나타내었고, 그 영역의 이진영상의 부분을 Fig. 3(b)에 나타내었다. 그리고 이진영상의 특징점이 있는 화소의 각도에 대하여 수식 (3)을 적용하여 획득한 최종 각도영상의 일부분을 Fig. 3(c)에 나타내었다.

Fig. 3.Acquisition of angle image: (a) Angle image(–180o∼180o), (b) Binary image, (c) Angle image(1°~180°).

3.2 층화추출을 이용한 이진영상 특징점 분류

전처리 과정을 통하여 획득한 이진영상의 특징점을 층화추출을 이용하여 각도가 유사한 층으로 분류한다. 층화추출은 Fig. 4와 같이 모집단(population)에 대한 사전지식을 바탕으로 구성요소를 성질이 유사한 층(strata)이라 부르는 여러 집단으로 분류하고, 분류된 각 층을 모집단으로 생각하여 표본을 추출하는 방법이다. 층화추출은 분류된 각 층에서 표본을 추출할 때 추출률을 낮게 하여도 표본분산이 낮으므로 모집단의 성질을 추정할 때 신뢰성이 높은 방법이다[7].

Fig. 4.Stratified sampling method.

층화추출에서 층간 구성요소는 이질적(heterogeneous)이고, 층 내의 구성요소는 동질적(homogeneous) 일 때 효과적이다. 따라서 본 논문에서는 전처리 과정을 통하여 획득한 각도영상을 기반으로 이진영상의 특징점을 수식 (4)의 SAoA (six areas of angle)와 같이 30o씩 6개의 층(1°∼30°, 31°∼60°, 61°∼90°, 91°∼120°, 121°∼150°, 151°∼180°)으로 분류한다.

본 논문의 제안 방법으로 이진영상의 특징점을 각도영상을 바탕으로 6개의 층으로 분류하여 Fig. 5에 각각 나타내었다. 빌딩영상의 이진영상에서 전체 특징점의 개수는 11,037개이고, 그중 1°∼30°는 2,455개, 31°∼60°는 676개, 61°∼90°는 1,416개, 91°∼120°는 2,099개, 121°∼150°는 935개 그리고 151°∼180°는 3,456개로 각각 분류되었다.

Fig. 5.Six stratum of binary image: (a) 1o∼30o, (b) 31°∼60°, (c) 61°∼90°, (d) 91°∼120°, (e) 121°∼150°, (f) 151°∼180°.

여기서 I는 첨수집합(index set)이고, S는 집합 SAoAi를 원소로 갖는 집합이다. SAoAi (six areas of angle)는 이진영상의 특징점 (x, y)을 6개의 각도영역에 따라 분류한 집합이고, 그것의 교집합은 ∅가 되는 특징을 가진다.

3.3 계통추출을 이용한 특징점 표본 추출

층화추출에 의하여 특징점을 6개의 층으로 분류한 후 각 층에 계통추출을 적용하여 하프변환에 사용 될 특징점을 표본 추출한다. 계통추출은 Fig. 6과 같이 모집단의 구성요소를 일렬로 늘어놓고 일정한 간격으로 구성요소를 추출하는 방법이다. 계통추출은 구성요소 추출이 간단하면서 임의추출(random sampling)보다 선택오차를 줄일 수 있는 방법이다. 또한 추출된 구성요소가 모집단에 균일하게 퍼져있기 때문에 임의추출 보다 모집단에 대한 더 많은 정보를 제공해 줄 수 있는 방법이다[7].

Fig. 6.Systematic sampling method.

따라서 본 논문에서는 층화추출에 의하여 6개의 층으로 분류된 각 층에 계통추출을 적용하여 하프변환에 사용될 구성요소를 추출한다. 이때 각 층에서 구성요소를 추출할 때 사용할 추출 간격(term)은 수식 (5)와 같이 이진영상의 특징점의 비율(R)을 바탕으로 그 비율이 0.05 이상일 때 5로 설정하고, 미만일 때는 10으로 한다. 특징점 비율은 영상의 전체 픽셀 ToP (total of pixels)에 대한 이진영상의 특징점 NoF (number of features)으로 획득한다. 비율 0.05는 실험에 의하여 결정되었으며, 특징점의 비율이 높다는 것은 해당 영상의 복잡도가 높다는 의미로서 구성요소의 추출이 많이 필요하다. 빌딩영상(380×509)의 경우 특징점의 비율이 0.0571이므로 6개의 각 층에서 5의 간격으로 구성요소를 각각 491개, 136개, 284개, 420개, 187개 그리고 692개 추출한다.

여기서 ToP는 영상의 전체 픽셀 개수이고, Height와 Width는 영상의 높이와 너비이다. NoF는 이진영상의 특징점의 개수이다. 그리고 term은 구성요소를 추출할 간격이다.

3.4 하프변환 수행

하프변환은 수식 (6)에 의하여 이진영상의 모든 특징점을 θ와 ρ 평면으로 공간변환시켜 영상에서 직선을 검출하는 방법이다[4]. 공간영역의 직선 위의 두 특징점 (x1, y1), (x2, y2)에 대한 하프변환 수행은 하프공간의 2차원 하프배열에 정현곡선으로 Fig. 7과 같이 나타난다. 하프배열은 0의 값으로 초기화되고, 공간영역의 특징점이 하프변환에 의하여 공간변환 될 때 해당 셀의 빈도수가 1씩 증가된다. 하프배열에서 정현곡선의 교차점 셀에는 빈도수가 2이고, 교차점을 제외한 정현곡선 상의 모든 셀의 빈도수는 1이며, 그 외의 모든 셀은 0의 빈도수를 가진다. 하프변환은 이진영상의 모든 특징점을 공간변환하기 때문에 처리시간은 수식 (6)과 같이 영상의 특징점의 개수와 각도영역에 의하여 결정된다. 특징점의 개수가 11,037개인 빌딩영상은 Δθ = 1° 인 경우, 수식 (6)을 11,037 x 180번 수행하게 된다. 따라서 하프변환의 처리속도를 고속화하기 위해서는 특징점의 개수와 각도영역의 차원을 효율적으로 감소시키는 것이 필요하다.

Fig. 7.Hough Transform: (a) xy-plane, (b) θρ-plane.

여기서 (x, y)는 영상에서의 특징점의 좌표이고, ρ는 좌표의 원점에서 직선까지의 법선의 거리이다. 그리고 θ는 x축과 법선 사이의 각도이다.

따라서 본 논문에서는 하프변환의 처리속도 고속화를 위하여, 다중 통계기법을 이용하여 하프변환에 사용될 특징점의 개수를 줄이고, 하프변환 수행에 사용되는 각도영역(1°∼180°)을 수식 (7)과 같이 각 층의 해당 각도영역으로 제한하여 각도영역의 차원을 1/6로 줄인다.

여기서 (x, y)는 영상에서의 특징점의 좌표이고, ρ는 좌표의 원점에서 직선까지의 법선의 거리이다. 그리고 θi는 x축과 법선 사이의 각도이다.

3.5 직선검출 수행

영상에서 직선검출은 Fig. 8과 같이 하프변환의 결과를 저장하는 2차원 하프배열인 θ와 ρ평면의 셀의 누적 값을 조사하여 지역 최댓값이 되는 셀의 좌표(θm, σm)를 이용하여 다음의 수식 y = (-cosθm/sinθm) x + ρm/sinθm에 의하여 영상에서 이루어진다. 일반적으로 하프변환의 직선검출은 영상에서 상대적으로 길이가 긴 직선에 대하여 중복적으로 이루어진다. 이러한 하프변환의 특성은 영상에서 중요한 부분을 차지하는 직선이 그 길이가 상대적으로 짧으므로 검출되지 못하는 문제를 야기한다.

Fig. 8.Line detection: (a) θρ-plane, (b) xy-plane.

따라서 본 논문에서는 영상에서 직선을 효율적으로 검출하기 위하여 다음과 같이 직선검출을 설계한다. 먼저 영상에서 추출할 직선의 전체 개수 ToEL(total of extracting lines)를 결정하고, 수식 (8)과 같이 이진영상의 전체 특징점의 개수 NoF (number of features)와 6개의 각 층으로 분류된 특징점의 개수 NoCF (number of classified features)를 이용하여 각 층의 특징점 비율 r을 구한다. 그리고 그 비율을 바탕으로 6개의 각 방향으로 검출할 직선의 개수 NoEL (number of extracting lines)를 구하여 영상에서 직선을 각각 검출한다. 이렇게 직선검출을 설계하므로 영상에서 직선검출이 길이가 긴 직선에 집중되는 것을 막고, 의미 있는 주요 직선을 여러 방향에서 효율적으로 검출할 수 있다.

여기서 ri는 6개 각 층의 특징점 비율이고, NoCFi는 6개 각 층으로 분류된 특징점의 개수이며, NoF는 이진영상의 전체 특징점의 개수이다. 그리고 NoELi는 6개의 각 방향으로 검출할 직선의 개수이고, ToEL는 영상에서 추출할 전체 직선의 개수이다.

ToEL가 10일 때, 빌딩영상의 NoF는 11,037개이고, 6개의 각 층으로 분류된 NoCFi는 각각 2,455개, 676개, 1,416개, 2,099개, 935개 그리고 3,456개이므로 각 층의 특징점 비율 ri은 각각 0.2224, 0.0612, 0.1283, 0.1902, 0.0847 그리고 0.3131이다. 이 비율을 바탕으로 6개의 각 방향으로 검출할 직선의 개수 NoELi는 각각 2개, 1개, 1개, 2개, 1개 그리고 3개로 결정이 되어 영상에서 직선을 검출한다.

 

4. 실험 및 분석

4.1 실험 환경

본 논문에 사용된 실험영상은 Fig. 9와 같이 회랑(arcade)영상, 건물(building)영상, 복도(corridor)영상, 집(house)영상, 계단(stair)영상 그리고 청사진(blueprint)영상이다[12]. 실험영상의 크기와 전처리를 통하여 획득한 이진영상의 특징점 개수를 Table 1에 나타내었다. 크기가 다양한 실험영상이 사용되었고, 실험영상의 특징점의 개수는 최소 약 5,000개에서 최대 약 17,000개까지 다양한 분포를 가진다.

Fig. 9.Images of test: (a) arcade, (b) building, (c) corridor, (d) house, (e) stair, (f) blueprint.

Table 1.Size of images and no. of features

본 논문에서는 실험영상에서 계통추출을 적용하여 6개의 층에서 특징점을 추출할 때 사용할 추출간격은 특징점 비율을 바탕으로 결정된다. 즉 영상 크기에 대한 특징점 비율이 0.05 이상인 실험영상의 경우는 추출간격을 5로 하고, 그 미만의 경우는 10으로 한다. 본 실험에서 사용한 각 실험영상에 대한 특징점 비율과 추출간격을 Table 2에 나타내었다. 실험영상 중 복잡도가 가장 놓은 회랑(arcade)영상의 경우 추출간격이 5이고, 나머지 실험영상의 경우는 10이다. 즉 일괄적으로 같은 간격으로 표본을 추출하는 것이 아니라, 특징점 비율을 바탕으로 영상의 복잡도가 높은 영상에 대해서는 더 촘촘하게 표본을 추출하도록 설계하였다.

Table 2.Rate of features and term of sampling in six strata

그리고 실험영상에 대한 6개의 각 층으로 분류된 특징점의 개수를 Table 3에 나타내었고, Table 2의 추출간격을 바탕으로 각 층에서 추출한 특징점의 개수는 Table 4와 같다. 본 논문에서는 Table 4의 추출 된 특징점을 바탕으로 하프변환을 수행하였다.

Table 3.No. of classified features in six strata

Table 4.No. of sampled features in six strata

실험영상을 바탕으로 표준 하프변환인 R. Duda 방법[4], k-레벨 히스토그램을 이용한 K. Chung 방법[5], 특징점의 각도를 직접 사용하는 D. Fan 방법[6] 그리고 제안방법을 비교 평가하였다. 본 논문에서는 실험을 위하여 Microsoft Windows 7, Dual CPU 2.16GHz, 4GB RAM 환경에서 Matlab 7.1로 구현하였고, K. Chung 방법의 문턱치는 히스토그램의 평균을 사용하였다.

4.2 처리시간 비교

각 실험영상에 대하여 10회 반복 수행하여 그 평균을 처리시간으로 구하여 Fig. 10에 비교하여 나타내었다. 하프변환의 처리시간이 특징점의 개수에 큰 영향을 받는 다는 것을 특징점의 개수가 많은 회랑(arcade)영상, 복도(corridor)영상, 집(house)영상 그리고 특징점의 개수가 적은 빌딩(building)영상, 계단(stair)영상, 청사진(blueprint)영상 간의 비교를 통하여 확인할 수 있었다.

Fig. 10.Comparison of processing time.

각 방법의 평균 처리시간을 살펴보면, R. Duda 방법은 약 0.622초, K. Chung 방법은 약 0.371초, D. Fan 방법은 약 0.335초 그리고 제안방법은 약 0.287초의 처리시간이 소요되었다. 표준 하프변환인 R. Duda 방법의 처리시간이 가장 많이 소요되었는데 그 원인은 모든 특징점을 사용하여 하프변환을 수행하기 때문이다. K. Chung 방법과 D. Fan 방법은 비슷한 처리시간 성능을 보였으며 R. Duda 방법에 비하여 처리시간이 많이 개선되었다. 본 논문에서 제안한 방법은 그 처리시간 성능에서 가장 우수한 성능을 보였고, R. Duda 방법(R. Duda - Our work) / R. Duda)), K. Chung (K. Chung - Our work) / K. Chung) 그리고 D. Fan 방법 (D. Fan - Our work) / D. Fan) 보다 각각 약 54%, 23% 그리고 14%의 향상된 처리시간을 나타내었다.

4.3 직선검출 비교

각 방법을 이용하여 실험영상에서 10개의 직선을 각각 검출하였으며 그 직선검출 개수를 Fig. 11에 비교하여 나타내었다. 전체 실험영상에 대한 R. Duda 방법은 평균 약 9.3개의 직선을 검출하였고, K. Chung 방법은 평균 약 8.8개, D. Fan 방법은 평균 약 8.3개를 검출하였다. K. Chung 방법과 D. Fan 방법은 처리시간에서는 R. Duda 방법 보다 우수하였지만, 직선검출 부분에서는 오히려 그 성능이 떨어지는 것을 알 수 있었다. 그 원인은 특징점에서 구한 부정확한 각도를 기반으로 하프변환을 수행하여 영상에서 직선을 검출하기 때문인 것으로 사료된다. K. Chung 방법의 복도(corridor)영상의 경우, 복도영상의 중앙 기둥부분의 직선을 중복 검출하였고, D. Fan 방법의 청사진(blueprint)영상의 경우, 청사진영상의 왼쪽 수직부분의 직선을 중복 검출하였다. 본 논문의 제안방법은 평균 약 9.7개의 우수한 직선검출 성능을 나타내었고, 대부분의 실험영상에서 10개의 직선을 검출하였다. 그리고 기존의 방법들과는 확연하게 영상의 다양한 방향에서 중요 직선을 효율적으로 검출할 수 있었다. 제안방법의 복도(corridor)영상에서는 1개의 직선을 오검출하였고, 계단(stair)영상에서는 1개의 직선을 중복 검출하였다.

Fig. 11.No. of line detection.

전체 실험영상에 대한 각 방법의 직선검출 결과를 Fig. 12에 나타내었다. 기존의 방법들은 특징점이 많은 직선을 중심으로 검출이 중복되어 나타났으며, 영상에서 특징점의 수가 상대적으로 적은 의미 있는 직선을 검출할 수 없음을 관찰하였다. 그러나 본 논문의 제안 방법은 다양한 방향의 의미 있는 직선을 효율적으로 검출할 수 있음을 보여주었다. 그 사실을 자세히 알아보기 위하여 실험영상 중 집(house)영상과 청사진(blueprint)영상에 대한 각 방법의 직선검출 결과를 Fig. 13에 더 자세히 나타내었다. 기존의 방법들은 두 실험영상에서 보는 바와 같이, 상대적으로 길이가 긴 특징점이 많은 직선을 중심으로 중복하여 검출이 이루진다. 그러나 본 논문의 제안방법은 기존의 방법들 보다 영상의 다양한 방향에서 주요 직선을 검출할 수 있음을 보여주고 있다.

Fig. 12.Results of line detection of test images by various methods: (a) R. Duda, (b) K. Chung, (c) D. Fan, (d) Our work.

Fig. 13.Results of line detection of house and blueprint images by various methods: (a) house, (b) blueprint.

 

5. 결 론

본 논문에서는 다중 통계기법을 기반으로 한 새로운 고속 하프변환 방법을 제안하였다. 하프변환의 처리시간 고속화를 위하여, 층화추출과 계통추출을 이용하여 하프변환에 사용되는 특징점의 개수를 축소하여 처리시간을 일차적으로 고속화하였다. 그리고 추출된 특징점을 세부 방향으로 나누어 하프변환의 수행방향 차원수를 축소하므로 추가적인 하프변환 고속화를 하였다. 또한 기존의 방법으로는 영상에서 직선의 길이가 상대적으로 짧아 검출할 수 없었던 직선검출 문제를 하프변환의 결과가 저장된 하프배열에서 세부 방향으로 직선을 검출하도록 설계하므로 해결하였다.

본 논문의 제안방법은 기존의 방법들과의 비교 평가에서 하프변환의 처리시간과 직선검출 영역 모두에서 두드러진 결과를 나타내었다. 특히 복잡한 영상에서 다양한 방향으로 직선을 검출하는데 뛰어난 성능을 나타내었으며, 향후 연구로는 본 논문의 연구결과를 비전 응용분야에 접목하여 활용하고 발전시키는 것이다.

참고문헌

  1. P. Hart, "How the Hough Transform Was Invented," Proceeding of IEEE Signal Processing Magazine, pp. 18-22, 2009.
  2. B.H. Cho and S.H. Jung, "Line Detection in the Image of a Wireless Mobile Robot Using an Efficient Preprocessing and Improved Hough Transform," Journal of Korea Multimedia Society, Vol. 14, No. 6, pp. 719-729, 2011. https://doi.org/10.9717/kmms.2011.14.6.719
  3. P. Hough, A Method and Means for Recognizing Complex Patterns, U.S. Patent No. 3069654, 1962.
  4. R. Duda and P. Hart, "Use of the Hough Transformation to Detect Lines and Curves in Pictures," Communication of the ACM, Vol. 15, No. 1, pp. 11-15, 1972. https://doi.org/10.1145/361237.361242
  5. K. Chung, Z. Lin, S. Huang, Y. Huang, and H. Liao, "New Orientation-based Elimination Approach for Accurate Line-Detection," Pattern Recognition Letters, pp. 11-19, 2010. https://doi.org/10.1016/j.patrec.2009.09.013
  6. D. Fan, H. Bi, and L. Wang, "Implementation of Efficient Line Detection with Oriented Hough Transform," Proceeding of International Conference on Audio, Language and Image Processing, pp. 45-48, 2012.
  7. K. Ramachandran and C. Tsokos, Mathematical Statistics with Applications, AP, Cambridge, Mass., 2009.
  8. J. Martiney, U. Rodriguez, and M. Nechyba, "An Automated Implementation of Beamlets to Classify Frames of Triggered Lightning," Proceeding of Florida Conference on Recent Advances in Robotics, pp. 1-6, 2003.
  9. J. Canny, "A Computational Approach to Edge Detection," IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 8, No. 6, pp. 679-698, 1986. https://doi.org/10.1109/TPAMI.1986.4767851
  10. R. Gonzalez and R. Woods, Digital Image Processing, Third Edition, Pearson Prentice Hall, Upper Saddle River, NJ, 2008.
  11. B.H. Cho and S.H. Jung, "An Improved Hough Transform Using Directional Information," Journal of KI ISE: Computing Practices and Letters, Vol. 19, No. 2, pp. 105-109, 2013.
  12. Martin’s ISE (Image Sharing for Experiment), http://mips.changwon.ac.kr/~martin (accessed Aug., 12, 2016).

피인용 문헌

  1. 최근접 각도를 이용한 복수 레이저 영상 추적 방법 연구 vol.6, pp.2, 2016, https://doi.org/10.20465/kiots.2020.6.2.037