• 제목/요약/키워드: Robot navigation

검색결과 822건 처리시간 0.026초

스케일불변 특징의 삼차원 재구성을 통한 이동 로봇의 상대위치추정 (Relative Localization for Mobile Robot using 3D Reconstruction of Scale-Invariant Features)

  • 길세기;이종실;유제군;이응혁;홍승홍;신동범
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제55권4호
    • /
    • pp.173-180
    • /
    • 2006
  • A key component of autonomous navigation of intelligent home robot is localization and map building with recognized features from the environment. To validate this, accurate measurement of relative location between robot and features is essential. In this paper, we proposed relative localization algorithm based on 3D reconstruction of scale invariant features of two images which are captured from two parallel cameras. We captured two images from parallel cameras which are attached in front of robot and detect scale invariant features in each image using SIFT(scale invariant feature transform). Then, we performed matching for the two image's feature points and got the relative location using 3D reconstruction for the matched points. Stereo camera needs high precision of two camera's extrinsic and matching pixels in two camera image. Because we used two cameras which are different from stereo camera and scale invariant feature point and it's easy to setup the extrinsic parameter. Furthermore, 3D reconstruction does not need any other sensor. And the results can be simultaneously used by obstacle avoidance, map building and localization. We set 20cm the distance between two camera and capture the 3frames per second. The experimental results show :t6cm maximum error in the range of less than 2m and ${\pm}15cm$ maximum error in the range of between 2m and 4m.

이동로봇의 원격제어를 위한 힘 반향 조이스틱의 개발 (Development of Force Feedback Joystick for Remote Control of a Mobile Robot)

  • 서세욱;유봉수;조중선
    • 한국지능시스템학회논문지
    • /
    • 제13권1호
    • /
    • pp.51-56
    • /
    • 2003
  • 기존의 이동로봇 시스템은 완전한 자율주행이 주된 목표였으며 이때 영상정보는 단지 모니터링을 하는 보조적인 수단으로 사용되었다. 이에 따라 이동로봇의 자체 기능이 점차 고도화되는 방향으로 연구가 진행되었고, 제작비 또한 함께 상승하게 되었다. 그러나 구동만이 목적인 저렴한 이동로봇 시스템을 조작자가 원격 제어하는 것 또한 중요한 분야 중 하나이다. 이때 원격제어에 사용되는 신호로는 카메라에 의한 영상정보와 초음파 센서 등에 의한 거리정보를 주로 사용하게 된다. 그러나 영상정보는 3차원의 입체적 정보를 제공하는 데에는 부적절하기 때문에 초음파 센서를 이용한 거리정보가 매우 유용하게 된다. 본 논문에서는 초음파 센서의 정보를 이용한 원격제어용 힘 반향 조이스틱을 개발하였다 힘 반향 알고리즘은 하나의 식으로 표현하기 곤란하므로 전문가 시스템의 구현이 매우 필요한 분야이다. 따라서 퍼지 논리를 사용하여 생성한 힘 반향 알고리즘을 이동로봇 원격제어에 사용함으로써 조작자가 이동로봇 주변 환경을 쉽게 인식하여 이동로봇을 안전하게 주행할 수 있도록 하였다.

이동 로봇의 강인 위치 추정을 위한 단안 비젼 센서와 레이저 구조광 센서의 베이시안 센서융합 (Bayesian Sensor Fusion of Monocular Vision and Laser Structured Light Sensor for Robust Localization of a Mobile Robot)

  • 김민영;안상태;조형석
    • 제어로봇시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.381-390
    • /
    • 2010
  • This paper describes a procedure of the map-based localization for mobile robots by using a sensor fusion technique in structured environments. A combination of various sensors with different characteristics and limited sensibility has advantages in view of complementariness and cooperation to obtain better information on the environment. In this paper, for robust self-localization of a mobile robot with a monocular camera and a laser structured light sensor, environment information acquired from two sensors is combined and fused by a Bayesian sensor fusion technique based on the probabilistic reliability function of each sensor predefined through experiments. For the self-localization using the monocular vision, the robot utilizes image features consisting of vertical edge lines from input camera images, and they are used as natural landmark points in self-localization process. However, in case of using the laser structured light sensor, it utilizes geometrical features composed of corners and planes as natural landmark shapes during this process, which are extracted from range data at a constant height from the navigation floor. Although only each feature group of them is sometimes useful to localize mobile robots, all features from the two sensors are simultaneously used and fused in term of information for reliable localization under various environment conditions. To verify the advantage of using multi-sensor fusion, a series of experiments are performed, and experimental results are discussed in detail.

초음파와 무선 통신파 기반 위치 인식 시스템의 위치 오차와 민감도 평가 (Evaluation of Position Error and Sensitivity for Ultrasonic Wave and Radio Frequency Based Localization System)

  • 신동헌;이양재
    • 대한기계학회논문집A
    • /
    • 제34권2호
    • /
    • pp.183-189
    • /
    • 2010
  • 위치인식시스템은 이동로봇이 실내에서 주행하는데 가장 중요한 기술의 하나인데 본 논문에서 연구된 시스템은 GPS 시스템과 유사하게 3 개이상의 위성 비이컨에서 초음파와 무선통신파를 발사하고 로봇에 부착된 리시버는 초음파와 무선통신파의 수신되는 시간차를 계산하여 각 비컨까지의 거리를 구하고 또한 이로부터 로봇의 위치를 계산한다. 일반적으로 거리정보는 초음파의 한 파장 이내의 오차를 가지게 되는데 본 논문에서는 이에 따른 위치오차를 테일러 확장과 SVD(Singular Value Decomposition)를 이용하여 구하였다. 또한 본 논문에서는 거리오차에 따른 위치오차의 정확도를 잴 수 있는 값으로 민감도를 제시하였다.

자율주행 탑승용 옴니 드라이브 라이더 로봇 개발에 대한 장애인과 고령자의 욕구조사 (A Survey Study on the development of Omni-Wheel Drive Rider Robot with autonomous driving systems for Disabled People and Senior Citizens)

  • 이근민;김동옥;이수철
    • 재활복지공학회논문지
    • /
    • 제6권1호
    • /
    • pp.17-27
    • /
    • 2012
  • 본 연구는 장애인 그리고 비장애인이 사용할 수 있는 미래형 전동스쿠터인 자율주행 탑승용 옴니 드라이브 라이더 로봇의 정보을 제공하는데 그 목적이 있다. 그러므로 자율주행 탑승용 옴니 드라이브 로봇 개발을 하기 앞서 49명의 장애인과 고령자의 욕구 조사의 결과를 요약하면 다음과 같다. 첫째, 전동스쿠터의 승하차 불편사항과 밧데리 충전문제 등의 불만족한 이유로 가장 시급히 해결해야 할 문제로 나타났다. 이를 위해 본 연구개발 시 고려되어야할 사항으로 밧데리 충전시간과 거리, 팔 받침대, 발 받침대, 시트각도 등이 요소가 개선되어야 할 것이다. 둘째, 인도, 차도, 경사도, 보도블럭 등과 같은 도로환경에 주행안전에 위험을 느끼고 있으며, 이를 위해 편의기능으로 조이스틱 핸들형, 네비게이션 기능, 장애물 회피기능, 옴니 드라이브 휠, 우천 시 사용할 수 있는 자동 오픈형 덮개 등 본 연구개발과 관련한 여러 요소를 포함하여 장애인과 고령자에 맞는 설계 방안을 제안하였다.

  • PDF

LRF 센서를 이용한 글로벌 맵 기반의 적응형 이동 장애물 회피 알고리즘 개발 (Development of Adaptive Moving Obstacle Avoidance Algorithm Based on Global Map using LRF sensor)

  • 오세권;이유상;이대현;김영성
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권5호
    • /
    • pp.377-388
    • /
    • 2020
  • 본 논문에서는 고정된 장애물이 포함된 글로벌 맵 환경에서 LRF 센서만을 가진 자율이동 로봇이 이동장애물을 회피하기 위한 알고리즘을 제안한다. 우선 이동장애물을 회피하기 위해 LRF 거리 센서 데이터와 글로벌 맵을 이용하여 이동장애물을 추출한다. 추출된 이동장애물과 자율이동 로봇의 상대적인 벡터 성분의 합을 이용해 타원 형태의 안전반경을 생성한다. 생성된 안전반경을 고려하여 자율이동 로봇이 이동장애물을 회피하고 목적지에 도착할 수 있도록 한다. 제안된 알고리즘을 검증하기 위해 정량적인 분석 방법을 사용하여 기존 알고리즘과 비교하고 분석한다. 분석 방법은 이동장애물이 없을 때를 기준으로 제안된 알고리즘과 기존의 알고리즘의 경로의 길이와 주행 시간을 비교한다. 제안된 알고리즘은 이동장애물의 상대적 속도와 방향을 고려하여 회피할 수 있어서 경로와 주행 시간 모두 기존의 알고리즘보다 높은 성능을 보인다.

확장 칼만 필터를 이용한 로봇의 실내위치측정 (Indoor Localization for Mobile Robot using Extended Kalman Filter)

  • 김정민;김연태;김성신
    • 한국지능시스템학회논문지
    • /
    • 제18권5호
    • /
    • pp.706-711
    • /
    • 2008
  • 본 논문에서는 Inertial Navigation System (INS)와 Ultrasonic-SATellite (U-SAT)의 센서융합을 기반으로 100mm 이하의 정밀위치측정 시스템을 보여준다. INS는 자이로와 두 개의 엔코더로 구성되고, U-SAT는 네 개의 송신기와 한 개의 수신기로 구성하였다. 구성된 센서들은 정밀한 정밀위치측정을 위하여 Extended Kalman Filler (EKF)를 통해 센서들을 융합하였다. 위치측정의 성능을 증명하기 위해 본 논문에서는 로봇이 0.5 m/s의 속도로 주행한 실제 데이터(직진, 곡선)와 시뮬레이션을 통한 실험을 하였으며, 실험에 사용된 위치측정방법은 일반적인 센서융합과 INS 데이터만을 칼만 필터에 이용한 센서융합을 비교하였다. 시뮬레이션과 실제 데이터를 통해 실험한 결과, INS 데이터만을 칼만 필터에 이용한 센서융합이 더 정밀함을 확인할 수 있었다.

로봇의 시각시스템을 위한 동영상에서 칼라정보를 이용한 얼굴 추적 (Robot vision system for face tracking using color information from video images)

  • 정행섭;이주신
    • 한국항행학회논문지
    • /
    • 제14권4호
    • /
    • pp.553-561
    • /
    • 2010
  • 본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴 추적 방법을 제안하였다. 제안한 알고리즘은 동영상의 움직임 영역을 검출한 후 얼굴 영역을 추적한다. 동영상의 움직임 검출은 연속되는 2개의 프레임을 사용하여 차영상을 구한 후, 잡음을 제거하기 위한 방법으로 메디안 필터와 침식 및 팽창연산을 사용하여 움직임 영역을 검출한다. 움직임 영역에서 피부색을 추출하기 위하여 표본영상의 칼라 정보를 이용하였다. 칼라정보의 MIN-MAX값을 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 피부색 영역과 배경영역을 분리하였다. 얼굴 후보영역에 대하여 CMY 칼라 공간 C 채널에서 눈을 검출하고, YIQ 칼라 공간 Q 채널에서 입을 검출하였다. 지식기반으로 검출된 눈과 입의 특징을 찾아가며 얼굴영역을 추적하였다. 실험영상으로는 10명 각각에 대하여 150프레임의 동영상 총 1,500프레임을 입력받아 실험한 결과, 1,435프레임의 영상에 대하여 움직임 영역이 검출되어 95.7%의 프레임 검출율을 보였으며, 1,401개에 대한 얼굴을 추적 97.6%의 우수한 얼굴 추적결과를 나타내었다.

LRF 를 이용한 이동로봇의 실시간 차선 인식 및 자율주행 (A Real Time Lane Detection Algorithm Using LRF for Autonomous Navigation of a Mobile Robot)

  • 김현우;황요섭;김윤기;이동혁;이장명
    • 제어로봇시스템학회논문지
    • /
    • 제19권11호
    • /
    • pp.1029-1035
    • /
    • 2013
  • This paper proposes a real time lane detection algorithm using LRF (Laser Range Finder) for autonomous navigation of a mobile robot. There are many technologies for safety of the vehicles such as airbags, ABS, EPS etc. The real time lane detection is a fundamental requirement for an automobile system that utilizes outside information of automobiles. Representative methods of lane recognition are vision-based and LRF-based systems. By the vision-based system, recognition of environment for three dimensional space becomes excellent only in good conditions for capturing images. However there are so many unexpected barriers such as bad illumination, occlusions, and vibrations that the vision cannot be used for satisfying the fundamental requirement. In this paper, we introduce a three dimensional lane detection algorithm using LRF, which is very robust against the illumination. For the three dimensional lane detections, the laser reflection difference between the asphalt and lane according to the color and distance has been utilized with the extraction of feature points. Also a stable tracking algorithm is introduced empirically in this research. The performance of the proposed algorithm of lane detection and tracking has been verified through the real experiments.

실내 측위 추정을 위한 센서 융합과 결합된 칼만 필터 (A Kalman filter with sensor fusion for indoor position estimation)

  • 양장훈
    • 한국항행학회논문지
    • /
    • 제25권6호
    • /
    • pp.441-449
    • /
    • 2021
  • 지능형 이동체 시스템 발달에 따라서, 보다 정확한 위치 정보 추정 기술에 대한 요구가 증가하고 있다. 특히, 실내에서 사용되는 이동 로봇에게 주어진 일을 정해진 위치에서 수행할 때에는 보다 정확한 위치 추정에 대한 성능을 필요로 한다. 따라서, 이 논문에서는 고정형 또는 이동형 사물에 적용 가능한 진보된 위치 추정 방법을 제안한다. 제안 방법은 미리 설치된 블루투스 비콘 신호로부터 위치 추정 결과를 칼만 필터의 관찰 신호로 사용한다. 또한, 센서의 위치와 각도에 따라서 결정되는 각 방향의 중력 가속도를 추정하기 위해서, 롤(roll)과 피치(pitch) 각도를 먼저 계산하고, 이 결과를 자기장 센서 출력과 결합하여 요(Yaw) 각도를 추정함으로써,이동체의 진행 방향을 정확히 추정한다. 이를 기반으로 이동체의 제어 입력이 되는 가속도 신호를 정확히 계산함으로써, 칼만 필터의 성능을 향상시키는 방법을 제안한다. 제안 방법의 성능은 고정 상태와 이동 상태로 나누어 평균 위치 오차를 계산하여 기존의 칼만 필터와 비교시 위치 오차를 크게 향상시킴을 확인하였다.