DOI QR코드

DOI QR Code

Ceiling-Based Localization of Indoor Robots Using Ceiling-Looking 2D-LiDAR Rotation Module

천장지향 2D-LiDAR 회전 모듈을 이용한 실내 주행 로봇의 천장 기반 위치 추정

  • An, Jae Won (Dept. of Mechatronics, Chungnam National University) ;
  • Ko, Yun-Ho (Dept. of Mechatronics, Chungnam National University)
  • Received : 2019.03.22
  • Accepted : 2019.07.04
  • Published : 2019.07.31

Abstract

In this paper, we propose a new indoor localization method for indoor mobile robots using LiDAR. The indoor mobile robots operating in limited areas usually require high-precision localization to provide high level services. The performance of the widely used localization methods based on radio waves or computer vision are highly dependent on their usage environment. Therefore, the reproducibility of the localization is insufficient to provide high level services. To overcome this problem, we propose a new localization method based on the comparison between ceiling shape information obtained from LiDAR measurement and the blueprint. Specifically, the method includes a reliable segmentation method to classify point clouds into connected planes, an effective comparison method to estimate position by matching 3D point clouds and 2D blueprint information. Since the ceiling shape information is rarely changed, the proposed localization method is robust to its usage environment. Simulation results prove that the position error of the proposed localization method is less than 10 cm.

Keywords

1. 서론

지능형 로봇은 각종 센서를 이용해 주변상황을 인지 및 판단하고, 이를 바탕으로 스스로 동작을 결정하는 로봇을 의미한다. 최신의 지능형 로봇은 삶의여러 분야에서 다양한 역할을 수행하는 것을 목표로 연구되고 있다. 이러한 지능형 로봇의 응용에 있어서 가장 선행 되어야하는 기능은 로봇 스스로가 자신의 위치를 인식할 수 있어야 한다. 특히 실내처럼 상대적으로 한정된 공간에서의 응용을 목적으로 하는 지능형 로봇의 경우 다양한 역할을 수행하기 위해 고정밀 위치 추정 능력을 필요로 한다.

실내 응용을 목적으로 하는 로봇의 대표적인 위치추정기법에는 전파를 이용하는 기법과 컴퓨터 비전을 이용하는 기법이 있다. 전파를 이용하는 실내 위치 추정 기법은 실내 환경에서 GPS를 이용하는 위치추정이 불가능하기 때문에 고안된 기법이다. 여러 대의 통신 중계기 또는 와이파이 단말과 로봇간의 거리정보를 기반으로 로봇의 위치를 추정한다[1]. 하지만 전파를 이용하는 위치추정 기법은 상호간섭 및 페이딩 등의 전파 고유의 문제와 낮은 분해능에 의해 고정밀 위치 추정이 불가능하다.

컴퓨터 비전을 이용하는 위치 추정 기법의 경우촬영된 각 영상 내에서 검출되는 인공표식 또는 자연 표식간의 관계를 이용해 로봇의 위치를 추정한다[2-4]. 상대적으로 높은 분해능으로 전파를 이용하는 기법에 비해 정밀한 위치 추정이 가능하다. 하지만, 검출되는 특징의 양이 위치 추정 결과에 영향을 미치며, 움직이는 대상이 특징으로 검출되는 경우 심각한 성능저하가 발생한다.

본 논문에서는 앞서 언급된 위치 추정 기법의 문제점을 해소하기 위해 실내 환경에서 적용할 수 있는 위치 추정 기법을 제안한다. 제안하는 위치 추정 기법은 천장 지향 2D-LiDAR 회전 모듈을 이용해 획득한 공간 정보와 도면 정보의 비교를 통해 로봇의 위치를 추정한다.LiDAR는 높은 분해능과 정확도를 특징으로 하는 거리 계측장비로 다수의 빛을 조사하는 3D-LiDAR를 사용하면 쉽게 공간 정보를 획득할 수 있다. 하지만, 한 번에 조사할 수 있는 빛의 수에 따라 공간해상력이 달라지며, 높은 공간해상력을 확보하기 위해 고가의 3D-LiDAR를 사용하더라도 그 한계가 명확하다. 이러한 문제를 해소하기 위해 본 논문에서는 2D-LiDAR와 부족한 차원을 보강하기 위한 회전 시스템을 이용해 공간 정보를 획득하고, 이를 로봇의 위치 추정에 사용한다. 획득한 공간 정보는 천장 중심의 공간 정보로 변화가 빈번한 바닥 근방의 공간 정보와 달리 변화가 적으며 공간의 형태를 충실하게 반영하기 때문에 강인한 위치 추정이 가능하다.

본 논문은 다음의 구성을 따른다. 2장에서는 기존에 연구 되고 있는 천장 영역을 이용하는 위치 추정기법과 LiDAR를 이용하는 위치 추정 기법에 관하여 다룬다. 3장에서는 천장 지향 2D-LiDAR 회전 모듈을 통해 얻은 포인트 클라우드(Point Cloud, 점군)를 가공해 공간 정보를 획득하는 과정을 다룬다. 4장에서는 획득된 공간 정보를 바탕으로 도면 정보와 비교를 통해 로봇의 위치를 추정하는 과정을 다룬다. 5장에서는 실험 환경 및 실험 결과를 소개하고, 6장에서는 결론을 맺고 향후 연구방향을 다룬다.

2. 선행 연구

실내에서 천장은 상대적으로 변화가 적은 공간으로 관측되는 특징의 재현성이 높아 컴퓨터 비전 기반의 위치 추정 기법을 적용하기에 유리하다. 이러한 특성에 의해 사전에 촬영된 영상과 새롭게 촬영한 영상 간의 비교를 이용하는 위치 추정 기법과 천장 영역에 항상 존재하는 조명을 기반으로 하는 위치추정 기법 등이 연구 되고 있다[5-7]. 하지만, 언급된 기법들의 경우 천장의 높이가 일정하지 않거나, 구조물에 의해 천장의 일부가 가려져 폐색(Occlusion)된영역이 발생한다면 충분한 특징을 검출하지 못하기 때문에 성능저하가 발생할 수밖에 없다.

LiDAR는 고 정밀 거리 계측장비로 주변 환경에 영향을 적게 받기 때문에 재현성이 높은 거리 측정결과를 획득할 수 있다. 하지만 획득한 정보는 단순한 공간상의 점(Point) 정보로 각 점간의 관계를 이용해 점들을 그룹화 하고, 공간의 특성을 파악하는 과정이 필요하다[8]. 특히 2D-LiDAR를 이용하는 위치추정기법의 경우 공간상의 점들이 이루는 형태를 기반으로 지도 정보를 작성하거나[9], 특징으로 삼아위치를 추정하는 기법[10]이 연구되고 있다. 하지만, 고정된 2D-LiDAR를 이용해 3차원의 공간 정보를 담기에는 한계가 있으며, 변화가 빈번한 바닥면 근방의 정보를 사용하기 때문에 강인한 위치추정에 어려움이 있다.

3. LiDAR 계측 결과를 통한 공간 정보 획득 과정

LiDAR의 공간정보 계측 과정을 통해 획득한 점군은 공간상의 점들에 대한 단순 집합으로 공간의 형태를 파악하기 위해서는 추가적인 연산과정이 요구된다. 우선 같은 평면을 계측한 점들의 그룹화를 통해 공간을 이해하는 과정이 필요하다. 본 논문에서는 각 점들의 분할을 위해 각 점의 관심공간에 속한 점들을 이용해 구한 노말 벡터(Normal Vector)와 표준 거리(Normal Distance)를 사용한다.

3.1 관심 공간

각 점의 노말 벡터와 표준 거리는 각 점의 관심 공간에 속한 점들을 이용해 구한다. 다음의 세 가지 조건을 만족할 때 점 \(p_{j}\)가 점 \(p_{i}\)의 관심 공간에 포함된다. 먼저, 점 \(p_{i}\)와 점 \(p_{j}\)를 zx평면에 투영한 점과 원점을 잇는 두 벡터 \(\vec{p}_{i, x y}\), \(\vec{p}_{j, x y}\)의 내각의 크기가 \(\psi\)보다 작아야 한다. 다음으로, 점 \(p_{i}\)와 점 \(p_{j}\)를 zx평면에 투영한 점과 원점을 잇는 두 벡터 \(\vec{p}_{i, z x}\), \(\vec{p}_{j, z x}\)의 내각의 크기가 \(\psi\)보다 작아야한다. 마지막으로, 원점으로부터 점 \(p_{i}\)와 점 \(p_{j}\)의 거리를 \(r_{i}\), \(r_{j}\)라 할 때, 두 거리가식 (1)을 따라야한다. 본 논문에서는 \(\psi\)는  \(25^{\circ}\), \(\epsilon\)은0.1을 사용하였다.

\(1-\epsilon \leq \frac{r_{j}}{r_{i}}<1+\epsilon\)       (1)

3.2 노말 벡터

\(p_{i}\)의 노말 벡터는 점 \(p_{i}\)의 관심 공간에 속한 점들을 이용해 추정한 평면의 법선 벡터를 의미한다.

관심 공간에 속한 점들을 이용해 평면을 추정하기 때문에 노말 벡터는 각 점이 어떠한 형태로 분포되어 있는지 알 수 있는 지역적 특성과 각 평면이 어떻게 위치하는지 알 수 있는 공간적 특성을 담고 있다.

Fig.1의 (a)는 노말 벡터를 표현한 그림이다.

3.3 표준 거리

표준 거리는 공간상에 평행한 서로 다른 평면에 속한 점군을 구분하기 위해 사용한다. 점 \(p_{i}\)의 표준거리는 점 \(p_{i}\)의 노말 벡터를 법선 벡터로 하고, 점 \(p_{i}\)를 지나는 평면과 원점 사이의 거리를 사용한다.

즉 선정된 점과 원점간의 거리 관계가 아닌 각 점이속한 평면과 원점과의 거리관계를 의미한다. Fig. 1의 (b)는 표준 거리를 표현한 그림이다.

MTMDCW_2019_v22n7_780_f0001.png 이미지

Fig. 1. Normal vector and normal distance. (a) Normal vector, and (b) Normal distance.

3.4 계측 점군 분할

LiDAR의 계측 과정을 통해 획득한 3차원 공간상의 점군은 각 점들의 특성을 담고 있는 노말 벡터와 표준 거리를 이용해 동일한 평면을 측정한 점군끼리분할하여 공간 정보로 사용한다. 가장 많은 점이 포함되는 평면부터 분할될 수 있도록 분할 기준을 선정하고, 모든 점이 분할될 수 있도록 전체 과정을 반복한다. 분할 기준 선정 및 분할 방법은 다음의 과정을 따른다.

3.4.1 점군 분할을 위한 기준 노말 벡터 선정 과정

기준 노말 벡터는 점군 분할을 위한 기준이 되는 노말 벡터다. 많은 점군이 포함된 평면부터 분할될수 있도록 분할되지 않은 점들이 갖는 노말 벡터의 분포 경향성을 기반으로 선정한다. 기준 노말 벡터를 선정하는 과정은 다음과 같다.

먼저, 각 공간을 일정 구역으로 나눠 계급으로 삼고, 각 공간에 속한 노말 벡터를 도수로 하는 히스토그램을 작성한다. 다음으로, 가장 많은 노말 벡터가속해 있는 계급의 벡터들의 평균값을 기준 노말 벡터로 선정한다.

Fig.2는 기준 노말 벡터를 구하는 과정을 설명하기 위한 예시를 나타낸 것이다.Fig.2의 (a)는 2차원 평면상에 표현한 각 점의 노말 벡터를 나타낸 것이고, (b)는 (a)의 분포를 바탕으로 각 사분면을 계급으로 하는 히스토그램을 나타낸 것이다. 실제 분할 기준 선정에 사용하는 노말 벡터는 3차원 공간상의 정보이기 때문에 Fig. 2의 (a)의 평면에 하나의 축(z축)을 추가하여 8개의 공간을 계급으로 하는 히스토그램을 사용한다.Fig.2의 예시에서는 1사분면에 속한 노말 벡터의 수가 가장 많기 때문에 점군 분할을 위한 기준 노말 벡터는 1사분면에 속한 노말 벡터의 평균값을 사용한다.

MTMDCW_2019_v22n7_780_f0002.png 이미지

Fig. 2. Example of normal vector(NV) distribution. (a) Distribution of NV, and (b) Histogram of NV.

3.4.2 점군 분할을 위한 기준 표준 거리 선정 과정

기준 표준 거리는 점군 분할을 위한 기준이 되는 표준 거리를 의미한다. 기준 노말 벡터처럼 많은 점군이 포함되는 평면부터 분할될 수 있도록 표준 거리의 분포 경향성을 기반으로 선정한다. 기준 표준 거리를 선정하는 과정은 다음과 같다.

먼저, 기준 표준 거리 선정에 사용할 점군을 선정한다. 선정할 점군은 3.4.1항에서 구한 기준 노말 벡터와 유사한 노말 벡터를 갖는 점군이다. 각 점의 노말 벡터와 기준 노말 벡터의 유사성을 확인하기 위해 식 (2)를 사용한다. 식 (2)를 이용해 두 벡터의 사잇각을 구하고, 그 값이 \(\mu\)보다 작은 점을 선정한다. 본 논문에서는 \(\mu\)\(15^{\circ}\)를 사용하였다.

\(\theta=\cos ^{-1}\left(\frac{v_{1} v_{2}}{\left\|v_{1}\right\|\left\|v_{2}\right\|}\right)\)       (2)

다음으로, 선정된 점군의 표준 거리의 분포 경향성을 확인하기 위해 히스토그램을 작성한다. 표준 거리도 노말 벡터처럼 연속적인 값을 갖기 때문에 선정된 점군의 표준 거리의 최솟값과 최댓값을 기준으로 각 계급의 간격이 \(\Delta D\)인 히스토그램을 작성한다. 본 논문에서는 \(\Delta D\)는 5cm를 사용하였다. 마지막으로, 작성된 히스토그램에서 가장 많은 점군을 포함하고 있는 계급을 기준 표준 거리로 선정한다.

Fig.3은 기준 표준 거리를 구하기 위한 표준 거리의 히스토그램의 예시를 나타낸 것이다. 두 번째 계급(\(D_{2} \sim D_{2}+\Delta D\))에 속한 점들이 가장 많기 때문에 두 번째 계급을 점군 분할을 위한 기준 표준 거리로 선정한다.

3.4.3 점군 분할

각 점군은 분할 기준을 만족하는 점 \(p_{i}\)와 점 \(p_{i}\)의 관심 공간에 속한 점들의 분할 상태를 이용해 같은 평면을 측정한 점군끼리 분할한다. Fig.4는 점군 분할을 위해 라벨을 부여하는 4가지 경우를 나타낸 그림이다. 각 점군이 부여받은 라벨은 서로 다른 도형으로 표현하였다. 원으로 표현된 점군은 라벨을 부여받지 못한 점을 의미하고, 다각형으로 표현된 점군은 해당 라벨을 부여받은 점군이다. Fig.4의 (a)는 라벨 부여 방법의 첫 번째 경우에 대한 예시로서 새로운 라벨이 부여되는 경우를 의미한다. 분할 기준에 적합한 점 \(p_{i}\)의 관심 공간에 라벨을 부여받은 점이 없기 때문에 새로운 라벨을 부여한다. Fig. 4의 (b)는 라벨 부여 방법의 두 번째 경우에 대한 예시로서 분할 기준에 적합한 점 \(p_{i}\)의 관심 공간에 단일의 라벨을 부여받은 점들만 존재하는 경우를 의미한다. 점 \(p_{i}\)의 관심 공간에 삼각형 라벨을 부여받은 점만 있기 때문에 점 \(p_{i}\)는 삼각형 라벨을 부여받는다. Fig. 4의 (c)와 (d)는 라벨 부여 방법의 세 번째, 네 번째 경우에 대한 예시로서 분할 기준에 적합한 점 \(p_{i}\)의 관심 공간에 부여된 라벨의 종류가 다양하게 존재하는 경우를 의미한다. 라벨을 부여 받은 개수가 가장 많은 점군(삼각형 라벨)과 두 번째로 많은 점군(사각형 라벨)의 수의 비율에 따라 세 번째와 네 번째 경우를 나눈다.Fig.4의 (c)처럼 두 점군의 비율이 설정된 값보다 작으면, 작은 규모의 점군이 점 \(p_{i}\)의 주변 점군이 이루는 평면과 비교하였을 때 노이즈를 담고 있는 정보일 수 있기 때문에 점 \(p_{i}\)는 큰 그룹의 라벨을 부여한다. 그러므로 Fig.4의 (c)의 점 \(p_{i}\)는 삼각형 라벨을 부여받는다. Fig.4의 (d)처럼 두 점군의 비율이 설정된 값보다 크면, 같은 평면이지만 다른 라벨을 부여 받은 점군으로 판단한다. 그렇기 때문에 가장 큰 규모의 라벨을 점 \(p_{i}\)에 부여하고, 작은 규모의 그룹을 큰 그룹에 병합한다. 그러므로 Fig. 4의 (d)에서 \(p_{i}\)는 삼각형 라벨을 부여 받고, 사각형라벨을 부여 받은 점들에 삼각형 라벨을 부여한다. 본 논문에서 세 번째, 네 번째 경우를 나누는 비율 값은 0.8을 사용하였다.

한 쌍의 기준 노말 벡터와 기준 표준 거리를 이용한 분할이 끝나면, 라벨을 부여받지 못한 점들만을 이용해 3.4.1과 3.4.2의 과정을 따라 새로운 분할 기준을 선정하고 3.4.3항의 절차를 따라 분할과정을 수행한다. Fig. 5는 LiDAR로 계측한 점군 정보와 이의 분할 결과를 3차원 공간에 도시한 그림이다.

MTMDCW_2019_v22n7_780_f0003.png 이미지

Fig. 3. Example of normal distance histogram.

MTMDCW_2019_v22n7_780_f0004.png 이미지

Fig. 4. Example of segmentation of point cloud. (a) Case#1, (b) Case#2, (c) Case#3, and (d) Case#4.

MTMDCW_2019_v22n7_780_f0005.png 이미지

Fig. 5. Segmentation result. (a) LiDAR Point clouds, and (b) Segmentation result.

4. 천장 정보를 이용한 로봇의 위치 추정

4장에서는 3장의 과정을 통해 분할된 3차원 공간상의 점군들과 2차원 도면 정보를 비교해 로봇의 위치를 추정하는 과정을 다룬다. 다른 두 차원의 정보를 비교하기 위해 3차원 공간상의 점 정보를 2차원 평면 정보로 변환하는 과정이 필요하다. 계측 정보를평면 정보로 변환하기 위해 각 점군들을 천장 그룹과 천장의 경계(벽) 그룹으로 분류하고, 평면과 선분 형태로 변환한다. 변환된 평면 정보는 도면 정보와 비교하기 위해 천장의 경계정보를 기반으로 위치 추정을 위한 후보영역 선정에 사용한다. 후보영역이 선정되면 정합점수를 계산하여 최종적인 로봇의 위치를 추정한다. 일반적으로 변환된 평면 정보와 도면 정보는 완벽하게 일치하지 않기 때문에 천장과 천장의 경계에 따른 가중치가 부가된 평면 정보를 사용한다. 일련의 과정은 다음과 같다.

4.1 3차원 공간 정보에 대한 2차원 평면 정보 획득과정

3차원 공간 정보를 2차원 평면 정보로 변환하는 과정은 분할된 각 점군들을 천장 그룹과 천장의 경계(벽) 그룹으로 분류하고, 분류된 그룹에 따라 다른 과정을 거친다. 천장 그룹과 천장의 경계 그룹은 분할된 각 점군별로 공간상의 평면을 추정하고, 추정된 평면과 점군의 특성에 따라 그룹을 분류한다. 일반적인 실내 공간에서 벽은 바닥면과 수직이기 때문에 분할된 점군으로 추정한 평면이 바닥면(평면)과수직으로 만나고 일정 높이(축) 이상의 점을 포함한다면 해당 평면을 천장 경계 그룹으로 분류하고, 그렇지 않은 평면을 천장 그룹으로 분류한다.

MTMDCW_2019_v22n7_780_f0006.png 이미지

Fig. 6. Plane information conversion process according to the point group classification. (a) Example of LiDAR point clouds, (b) Set end point of each plane, (c) End points of each plane, and (d) Plane estimation result.

Fig.6의 (a)는 분할된 점군을 천장 그룹과 천장의 경계 그룹으로 분류하고, 바닥면(평면)에 투영한 예시를 나타낸 것이다. 원 모양은 천장으로 분류된 점군이고, 사각형 모양은 천장의 경계로 분류된 점군이다. 한편 천장 경계로 분류된 그룹의 점군에 대하여 동일한 투영을 사용하는 경우 Fig.6의 (a)에서 사각형의 점으로 도시된 것과 같이 좁은 영역에 다수의 데이터가 밀집되어 나타난다. 여기서 서로 다른밝기의 사각형 점들은 동일한 천장 경계 그룹에 속하지만 서로 다른 분할된 평면임을 표시하고 있다. 이러한 밀집된 천장 경계의 특징을 효과적으로 표현하는 한편 천장의 경계를 천장과 구분하여 표현하기 위해 Fig.6의 (d)처럼 천장 경계는 선분의 형태로 2차원 평면 정보에 나타낸다.

천장 경계 그룹에 속한 점군들에 대하여 선분 형태의 평면 정보를 획득하기 위해 다음의 두 단계를 추가적으로 거친다. 먼저,Fig.6의 (b)처럼 투영된 평면상의 임의의 한 점(삼각형)으로부터 천장의 경계로 분류된 각 점군 중 가장 멀리 있는 점을 검출한다. 그리고 각 점군 내에서 앞서 검출된 점(굵은 테두리)과 가장 멀리 떨어져 있는 점을 검출한다. 일련의 과정을 통해 Fig.6의 (c)에서와 같이 천장의 경계그룹으로 분류된 점군의 양 끝점을 검출할 수 있고, 이들을 연결해 Fig.6의 (d)처럼 선분 형태의 평면 정보를 얻을 수 있다.

얻어진 평면 정보는 도면 정보와 비교를 통해 로봇의 위치 추정에 사용된다. 하지만, 로봇의 회전 상태에 따라 평면 정보와 도면 정보가 나란하지 않은 경우 정상적인 비교를 수행할 수 없기 때문에 별도의 정렬 과정이 필요하다. 정렬은 총 두 단계로 이뤄지며, 첫 번째 단계에서는 Fig.6의 (d)에 도시된 각 천장 경계를 나타낸 선분의 길이를 이용한다. 천장 경계의 길이가 가장 긴 그룹을 선정하고, 이 경계가 평면 정보가 투영된 xy평면의 x축과 평행하도록 평면 정보를 회전시킨다. 두 번째 단계에서는 x축과 평행하도록 회전된 평면 정보를 \(90^{\circ}\)씩 회전시켜 총 4개의 새로운 평면 정보를 생성한다. Fig.7은 Fig. 6의 (d)를 정렬 및 회전을 통해 얻은 4개 평면 정보의 예시를 나타낸 것이다.

MTMDCW_2019_v22n7_780_f0007.png 이미지

Fig. 7. Plane information for candidate region selection. (a) 0°, (b) 90°, (c) 180°, and (d) 270°.

4.2 가중치가 부가된 평면 정보와 도면 정보 생성

일반적으로 평면 정보와 도면 정보가 완벽하게 일치할 수 없기 때문에 Fig.7의 평면 정보와 도면 정보를 이용해 로봇의 위치를 추정하는 것에는 한계가 있다. 그렇기 때문에 평면 정보와 도면 정보의 정합을 위해 각 정보의 천장과 천장의 경계에 따른 가중치가 부가된 정보를 사용한다. 천장의 경계 부분은 공간의 형태를 담고 있는 신뢰할 수 있는 정보이기 때문에 평면 정보와 도면 정보가 일치 할수록 높은 점수가 얻어지도록 상대적으로 큰 가중치를 부가한다. 본 논문에서는 단순 천장 영역에 대해서는 가중치를 1로 설정하는 반면 천장 경계와 그 주변은 \(2^{\alpha-p}\)의 상대적으로 높은 가중치를 부가한다. 여기서 는경계의 중요도를 반영하기 위한 계수이고, p는 천장의 경계로부터 떨어진 픽셀의 수를 의미한다. 이러한 \(2^{\alpha-p}\)의 가중치는 천장 경계로부터 \(p \leq \alpha\)의 범위에만부가된다. 이처럼 천장 경계뿐 아니라 그 주변에도높은 가중치를 설정하는 이유는 계측 과정이나 시공 등에서 발생할 수 있는 평면 정보와 도면 정보의 불일치에 대한 강인성을 확보하기 위함이다.

4.3 위치 추정을 위한 후보 영역 선정

본 절에서는 Fig. 7의 평면 정보와 도면 정보의 비교를 통해 로봇의 위치를 추정하기 위한 후보 영역 선정 과정을 다룬다. 변환된 평면 정보를 도면 정보의 모든 위치에 두고 비교하는 방법은 방대한 계산량을 요구한다. 따라서 평면 정보의 주요 특징을 이용하여 비교를 효율적으로 수행하기 위한 후보영역 선정 과정이 필요하다. 후보영역 선정 과정은 크게 두 단계로 이루어지며, 천장의 경계(벽)를 기반으로 후보 영역을 선정한다.후보영역 선정을 위한 첫 번째 단계에서는 평면 정보의 천장의 경계들 중 가장 길게 관측된 3개의 천장의 경계를 선정한다.Fig. 8의 (a)는 Fig. 6의 (d)의 평면 정보에서 천장의 경계들 중 가장 긴 3개의 천장의 경계를 선정한 예시를 나타낸 것이다. 두 번째 단계에서는 도면 정보의 천장의 경계가 선정된 경계와 같은 형태로 배치되어 있는 영역을 찾는다. 먼저 가장 긴 경계를 도면 정보에서 찾고, 각 경계의 위치 관계를 이용해 두 번째, 세 번째 길이의 경계를 도면 정보에서 찾는다. 다음 길이의 경계를 찾을 때는 해당 경계의 위치보다 더 넓은 영역을 확인한다. Fig. 8의 (b)는 도면 정보에서 각 길이의 경계를 찾을 때 확인하는 영역을 표시한 예시를 나타낸 것이다.

MTMDCW_2019_v22n7_780_f0008.png 이미지

Fig. 8. Process of finding candidate region. (a) Size of each plane, and (b) Search area of each plane.

4.4 정합 점수를 이용한 위치 추정

4.4절에서는 4.3절에서 선정한 후보 영역의 정합점수를 계산해 로봇의 위치를 추정하는 과정을 다룬다. 정합 점수는 식 (3)을 이용해 구하고, 각 변수의 의미는 Table1을 따른다. 정합 점수는 비교 영역 \(\omega\)의 모든 값을 비교하고, 4가지 조건에 맞춰 해당 수식의 값을 모두 더하여 구한다.4가지 조건은 다음과 같다.

\(\sum_{\omega}\left\{\begin{array}{ll} 0 & \text { if } I\left(x_{P} y_{I}\right)=0 \\ -2^{\alpha} \beta & \text { if } I\left(x_{P} y_{I}\right) \neq 0, \quad J\left(x_{. p} y_{J}\right)=0 \\ -\gamma\left|I\left(x_{F} y_{I}\right)-J\left(x_{J} y_{J}\right)\right| & \text { if } G_{I}\left(x_{F} y_{I}\right) \neq G_{J}\left(x_{J} y_{J}\right) \\ 2^{\alpha}-\left|I\left(x_{P} y_{I}\right)-J\left(x_{.} g y_{J}\right)\right| & \text { if } G_{I}\left(x_{P} y_{I}\right)=G_{J}\left(x_{J} y_{J}\right) \end{array}\right.\)       (3)

첫 번째 조건은 평면 정보의 (xp yI)위치에 아무런 가중치도 없는 경우로, LiDAR를 통한 계측정보가 없기 때문에 정합여부를 판단할 수 없는 경우를 의미한다. 두 번째 조건은 LiDAR 계측정보는 있지만, 도면 정보에는 정보가 없는 경우로 잘못된 정합으로 판단하여 정합 점수를 감점한다. 세 번째 조건은 LiDAR 계측정보도 있고, 도면 정보도 있지만 두 정보의 분류(천장 또는 천장의 경계)가 다르기 때문에 잘못된 정합으로 판단하고, 정합 점수를 감점한다.

네 번째 조건은 LiDAR 계측정보와 도면 정보가 모두 있으며, 두 정보의 종류도 같은 경우를 의미한다. 올바른 정합이기 때문에 식 (3)의 내용에 맞춰 정합점수를 가산한다. 4.1절에서 구한 4개의 평면 정보가 찾은 모든 후보영역의 정합 점수를 계산하여 가장 큰 점수를 받은위치를 로봇의 위치 추정 결과로 선정한다.

Table 1. The variable list

MTMDCW_2019_v22n7_780_t0001.png 이미지

5. 모의실험

5.1 실험 환경 및 실험 장비

제안하는 방법의 성능을 평가하기 위해 도면이 확보된 실내 공간 내 임의의 장소에 로봇을 위치시키고, 추정된 결과와 로봇의 실제 위치를 비교하였다. 실험에 사용한 2D-LiDAR는 SICK사의 LMS-111로 Fig. 9처럼 회전 시스템을 구성하여 실내 천장 정보를 획득한다.LMS-111은 내부 거울이 \(0.5^{\circ}\)단위로 회전할 때마다 거리를 측정하며, 측정 범위는 \(0.5 m \sim 20 m\)로 실내 공간에서 사용하기 적합한 측정 범위를 갖는 다. 회전 시스템은 LiDAR의 중심과 회전 시스템의 중심을 맞춰 주는 조절부와 센서를 회전시키는 회전부로 구성되어 있다.LiDAR를 이용한 계측은 회전부가 \(1^{\circ}\)회전할 때마다 수행하였다. 정합점수를 계산하기 위한 식 (3)의 3개의 변수 \(\alpha, \beta, \gamma\)는 실험과정에서 가장 높은 성능을 보인 6,8,1을 사용하였다.

제안하는 방법의 성능을 검증하기 위하여 다음 두 조건의 환경을 정의하고, 실험을 진행하였다. 두 조건은 공간 정보를 획득하는 과정에서 정보의 누락 없이 온전한 공간 정보를 획득하는 경우와 공간 정보를 획득하는 과정에서 움직이는 대상 또는 거대한 물체에 의하여 LiDAR가 가려지면서 온전하지 못한공간 정보를 획득하는 경우다.

MTMDCW_2019_v22n7_780_f0009.png 이미지

Fig. 9. Ceiling-looking 2D-LiDAR rotation module.

5.2 온전한 공간 정보를 획득하였을 때의 실험결과

제안하는 기법의 성능을 확인하기 위해 도면 정보가 확보된 임의의 장소에서 공간 정보를 계측하고, 위치추정 결과를 확인하였다. Fig.10은 3,4장의 과정을 통해 얻은 평면 정보와 도면 정보의 정합 결과를 나타낸 것이다. LiDAR 계측 결과는 점 형태로 도시하였고, 도면 정보는 선분 형태로 도시하였다.

Fig.11은 각 계측 위치에 따른 도면 정보 상의 x축, y축 방향의 오차를 도시한 그래프다. 그래프의 x축은 LiDAR를 이용한 계측 위치를 의미하고, y축은 오차를 의미한다. Table 2는 Fig.11의 그래프에도시한 오차의 특성을 나타낸 것이다. x축 방향 오차의 평균은 4.440cm, y축 방향 오차의 평균은 2.560 cm이며, x축 방향 오차의 최댓값은 8.307cm, y축방향 오차의 최댓값은 4.819cm로 일반적인 실내 주행 위치 추정 기법이 목표로 하는 10cm 이하의 오차범위에 만족하는 수준의 결과를 확인할 수 있다.

또한, 동일한 조건에서 이뤄진 실험 결과는 아니지만, 기존에 연구 되어진 컴퓨터 비전기반의 인공마커를 이용한 위치추정 기법[2]과 천장에서 관측되어지는 특징을 기반으로 하는 위치추정 기법[6]에 비해 더 좋은 성능을 보이는 것을 확인할 수 있다.

MTMDCW_2019_v22n7_780_f0010.png 이미지

Fig. 10. Example of matching results #1. (a) Example#1, and (b) Example#2.

Table 2. Summary of localization error #1

MTMDCW_2019_v22n7_780_t0002.png 이미지

5.3 온전하지 못한 공간 정보를 획득하였을 때의 실험
결과

제안하는 기법의 성능을 확인하기 위해 도면 정보가 확보된 실내 공간의 특정 위치에서 LiDAR를 직접 가려 소실된 계측정보를 이용해 로봇의 위치추정결과를 확인하였다. Fig.12는 3,4장의 과정을 통해 얻은 평면 정보와 도면 정보의 정합 결과를 나타낸 것이다. LiDAR 계측 결과는 점 형태로 도시하였고, 도면 정보는 선분 형태로 도시하였다.

Fig.13은 각 계측 위치에 따른 도면 정보 상의 x축, y축 방향의 오차를 도시한 그래프다. 그래프의 x축은 LiDAR를 이용한 계측 위치를 의미하고, y축은 오차를 의미한다. Table 3은 Fig.12의 그래프에도시한 오차의 특성을 나타낸 것이다. 5.3절에서 진행한 실험의 x축 방향 오차의 평균은 3.292cm, y축 방향 오차의 평균은 4.786cm이며, x축 방향 오차의 최댓값은 6.271cm, y축 방향 오차의 최댓값은 7.976cm로 5.2절의 온전한 공간 정보를 획득하였을 때의실험 결과보다 오차는 더 커졌지만, 평균값은 일반적인 실내 주행 위치 추정 기법의 목표를 만족하는 수준의 결과를 확인할 수 있다.

MTMDCW_2019_v22n7_780_f0012.png 이미지

Fig. 12. Example of matching results #2. (a) Example#1, and (b) Example#2.

MTMDCW_2019_v22n7_780_f0013.png 이미지

Fig. 13. Localization error #2.

Table 3. Summary of localization error #2

MTMDCW_2019_v22n7_780_t0003.png 이미지

6. 결론 및 향후 연구 방향

본 논문에서는 천장 지향 2D-LiDAR 회전 모듈을 이용한 실내 주행 로봇의 위치 추정 기법을 다루고 있다. 기존에 연구되고 있는 전파 및 컴퓨터 비전 기반의 실내 위치 추정 기법의 경우 송·수신기의 낮은 분해능, 촬영 환경의 빈번한 변화와 같이 획득하고자 하는 정보의 재현성이 부족하기 때문에 상황에 따라 성능 저하가 발생할 수 있다. 이러한 환경적 요인에 의해 발생하는 성능 저하 문제를 해소하기 위해 고정밀 거리 계측장비의 한 종류인 LiDAR를 이용해 상대적으로 변화가 적은 천장 영역의 정보를 계측하고, 이를 기반으로 로봇의 위치를 추정하였다.

즉, 높은 정밀도의 센서와 재현성 높은 천장의 형태 정보를 바탕으로 사전에 입력된 도면 정보와의 비교를 통해 로봇이 피랍된 직후나 초기 구동과정에서 위치를 추정 과정을 제안하였다. 제안하는 기법의 성능을 확인하기 위하여 모의실험을 진행하였으며, 모의실험의 경우 계측과정에서 센서가 천장 영역의 공간 정보를 적절하게 획득된 경우와 임의의 물체에 의해 센서가 가려지면서 천장 정보가 일부 누락된 경우를 가정하였다. 각각의 경우 평균 x축 방향으로 4.440cm, y축 방향으로 2.560cm와 x축 방향으로 3.292 cm, y축 방향으로 4.786cm의 오차를 갖는 위치 추정결과를 얻었으며, 이는 일반적인 실내 위치추정 기법이 목표로 하는 10cm이하의 오차 범위를 만족한다.

하지만, 본 기법의 경우 공간의 형태적 특성을 이용해 로봇의 위치를 추정하기 때문에 공간의 형태가 완전히 대칭된 공간 또는 동일한 형태의 공간이 반복되는 환경에서 사용하기에는 한계가 있다. 이러한 문제를 해소하기 위해 기존에 사용되고 있는 위치 추정기법과의 결합 또는 추가적인 센서 및 정보 활용을 통해 언급된 문제에 있어서도 강인한 위치 추정 기법을 고안할 필요가 있다.

References

  1. S.Y. Cho, “A Modified Residual-based Extended Kalman Filter to Improve the Performance of WiFi RSSI-based Indoor Positioning,” Journal of Institute of Control, Robotics and Systems, Vol. 20, No. 7, pp. 684-690, 2015. https://doi.org/10.5302/J.ICROS.2015.14.0093
  2. B.M. Ahn, Y.H. Ko, and J.H. Lee, “Indoor Location and Pose Estimation Algorithm Using Artificial Attached Marker,” Journal of Korea Multimedia Society, Vol. 19, No. 2, pp. 240-251, 2016. https://doi.org/10.9717/kmms.2016.19.2.240
  3. J.H. Kim and I.H. Jang, “Correction of Rotated Region in Medical Images Using SIFT Features,” Journal of Korea Multimedia Society, Vol. 18, No. 1, pp. 17-24, 2015. https://doi.org/10.9717/kmms.2015.18.1.017
  4. H.H. Jeon, J.H. Kim, and Y.H. Ko, “RAFSet (Robust Aged Feature Set)-based Monocular Visual Odometry,” Journal of Institute of Control, Robotics and Systems, Vol. 23, No. 12, pp. 1063-1069, 2017. https://doi.org/10.5302/J.ICROS.2017.17.0160
  5. A.C. Murillo, J.J. Guerrero, and C. Sagues, "Surf Features for Efficient Robot Localization with Omnidirectional Images," Proceeding of 2007 IEEE International Conference on Robotics and Automation, pp. 3901-3907, 2007.
  6. Y.J. Han and T.H. Park, “Localization of a Mobile Robot Using Multiple Ceiling Lights,” Journal of Institute of Control, Robotics and Systems, Vol. 19, No. 4, pp. 379-384, 2013. https://doi.org/10.5302/J.ICROS.2013.13.1863
  7. S.Y. Hwang and J.B. Song, “Monocular Vision and Odometry-based SLAM Using Position and Orientation of Ceiling Lamps,” Journal of Institute of Control, Robotics and Systems, Vol. 17, No. 2, pp. 164-170, 2011. https://doi.org/10.5302/J.ICROS.2011.17.2.164
  8. F. Moosmann, O. Pink, and C. Stiller, "Segmentation of 3D Lidar Data in Non-flat Urban Environments Using a Local Convexity Criterion," Proceeding of 2009 IEEE Intelligent Vehicles Symposium, pp. 215-220, 2009.
  9. L. Zhang and B.K. Ghosh, "Line Segment Based Map Building and Localization Using 2D Laser Rangefinder," Proceeding of IEEE International Conference on Robotics and Automation, Vol. 3, pp. 2538-2543, 2000.
  10. S.H. Bae and B.K. Kim, “An Efficient Outdoor Localization Method Using Multi-sensor Fusion for Car-like Robots,” Journal of Institute of Control, Robotics and Systems, Vol. 17, No. 10, pp. 995-1005, 2011. https://doi.org/10.5302/J.ICROS.2011.17.10.995