• Title/Summary/Keyword: mobile robot vision

Search Result 316, Processing Time 0.028 seconds

Vision-Based Feature Map-Building and Localization Algorithms for Mobile Robots (주행 로봇을 위한 비젼 기반의 특징지도 작성 및 위치 결정 알고리즘에 관한 연구)

  • Kim, Young-Geun;Choi, Chang-Min;Jin, Sung-Hun;Kim, Hak-Il
    • Proceedings of the KIEE Conference
    • /
    • 2002.07d
    • /
    • pp.2475-2478
    • /
    • 2002
  • This paper consider's the problem of exploring an unfamiliar environment in search of recognizable objects of visual landmarks. In order to extract and recognize them automatically, a feature map is constructed which records the set of features continually during a learning phase. The map contains photometric geometric, and metric information of each feature. Meanwhile, the localization algorithm can determine the position of the robot by extracting features and matching in the map. These procedures are implemented and tested using an AMR, and preliminary results are presented in this paper.

  • PDF

SLAM with Visually Salient Line Features in Indoor Hallway Environments (실내 복도 환경에서 선분 특징점을 이용한 비전 기반의 지도 작성 및 위치 인식)

  • An, Su-Yong;Kang, Jeong-Gwan;Lee, Lae-Kyeong;Oh, Se-Young
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.16 no.1
    • /
    • pp.40-47
    • /
    • 2010
  • This paper presents a simultaneous localization and mapping (SLAM) of an indoor hallway environment using Rao-Blackwellized particle filter (RBPF) along with a line segment as a landmark. Based on the fact that fluent line features can be extracted around the ceiling and side walls of hallway using vision sensor, a horizontal line segment is extracted from an edge image using Hough transform and is also tracked continuously by an optical flow method. A successive observation of a line segment gives initial state of the line in 3D space. For data association, registered feature and observed feature are matched in image space through a degree of overlap, an orientation of line, and a distance between two lines. Experiments show that a compact environmental map can be constructed with small number of horizontal line features in real-time.

Remote Control of Autonomous Mobile Robot with Vision Via the Internet (인터넷을 통한 비젼기반의 자율이동 로봇 제어)

  • Park, Tae-Hyun;Kang, Geun-Taek;Lee, Won-Chang
    • Proceedings of the KIEE Conference
    • /
    • 2000.07d
    • /
    • pp.2708-2710
    • /
    • 2000
  • 본 논문은 영상 정보를 통하여 원거리에 있는 자율주행 로봇을 실시간으로 원격 제어하기 위한 시스템 설계를 제안하고 실제로 구현한다. 본 논문에서의 제안한 시스템은 인터넷상에서 이동 로봇을 제어하기 위한 웹서버 시스템, 웹을 통하여 제어하거나, 웹 브라우저 없이 서버와 연결된 네트워크 선로를 통하여 제어하는 클라이언트 시스템, 클라이언트 시스템과 자율이동 로봇간의 양방향 통신을 가능하게 하고 모든 시스템 총괄하는 제어서버 시스템, 무선 네트웍카드를 통하여 서버의 명령을 실행하고 영상 정보를 감지하여 서버 시스템에 전송하는 로봇 시스템으로 구성된다. 클라이언트, 제어서버 시스템은 플랫폼의 이식성을 고려하여 Java 어플리케이션으로써 구현되어 질 것이며, 웹 사용자 인터페이스는 HTML 과 Java 애플릿을 사용하여 구현한다. 본 논문에서는 앞에서 제시한 이러한 원격제어 시스템을 실제로 구현하여 실험함으로써 원거리에 있는 자율이동 로봇의 실시간 제어를 검증하고 적용하고자 한다.

  • PDF

A study on the stereo vision system for controlling the mobile robot tele-operation (이동로봇의 원격조작을 위한 스테레오 비젼에 관한 연구)

  • Jung, Ki-Su;Ro, Young-Shick;Kang, Hui-Jun;Seo, Young-Su;Yun, Seong-Jun
    • Proceedings of the KIEE Conference
    • /
    • 2007.10a
    • /
    • pp.321-322
    • /
    • 2007
  • 본 논문은 네트워크을 통한 원격제어 시스템을 구축하는 연구로써 무선 랜과 AP를 이용하여 독립 무선 네트워크를 구축하고, 이동로봇의 주변 환경에 대한 레이저 센서정보와 영상정의를 전송한다. 그리고 스테레오 카메라와 Head Mounted Display를 사용하여 원격지에서 입체감 있는 영상을 보며 조작을 할 수 있게 하였으며, Head Motion Tracking를 이용해 이동로봇의 카메라를 별도의 조작 없이 컨트롤 가능하도록 방법을 제안하였다.

  • PDF

A Simple Framework for Indoor Monocular SLAM

  • Nguyen, Xuan-Dao;You, Bum-Jae;Oh, Sang-Rok
    • International Journal of Control, Automation, and Systems
    • /
    • v.6 no.1
    • /
    • pp.62-75
    • /
    • 2008
  • Vision-based simultaneous localization and map building using a single camera, while compelling in theory, have not until recently been considered extensive in the practical realm of the real world. In this paper, we propose a simple framework for the monocular SLAM of an indoor mobile robot using natural line features. Our focus in this paper is on presenting a novel approach for modeling the landmark before integration in monocular SLAM. We also discuss data association improvement in a particle filter approach by using the feature management scheme. In addition, we take constraints between features in the environment into account for reducing estimated errors and thereby improve performance. Our experimental results demonstrate the feasibility of the proposed SLAM algorithm in real-time.

Study of Mobile Robot using A*Algorithm and Driving Direction Control (자율이동로봇의 경로탐색 및 방향제어에 관한 연구)

  • 김상헌;최승진;신창훈;이동명;정재영;김관형
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.215-218
    • /
    • 2002
  • 본 논문에서 구현한 시스템은 비젼(vision)시스템을 이용하여 자율 이동로봇의 경로를 탐색하고 추출된 정보로부터 자율 이동로봇의 위치제어 성능을 제시하고자 한다. 일반적인 로봇시스템은 자신이 이동해야 할 목표 지점을 자율적으로 생성할 수 없으므로 기타 다른 시스템의 정보를 이용하여 미로를 탐색하거나 장애물을 인식하고 식별하여 자신의 제어전략을 수립한다. 그리고, 본 연구에서 제시한 시스템은 자율이동로봇의 행동 환경을 호스트 PC인 비젼시스템이 로봇의 현재 위치, 로봇이 이동해야 할 목표위치, 장애물의 위치와 형태 둥둥을 분석한다. 분석된 결과값을 RF-Module을 이용해서 로봇에 전송하면 로봇은 그 데이터를 받아서 동작하게 되며 로봇이 오동작 또는 장애물로 인해 정확한 목적지까지 도달하지 못할때 호스트 PC는 새로운 최단경로를 만들거나 장애물을 회피 할 전략을 로봇에게 보내준다. 본 연구에 적용한 알고리즘은 A* 알고리즘을 사용하였으며, 본 알고리즘은 매우 단순하면서도 실시간 처리에 적용가능하며, 자율 이동로봇의 충돌회피, 최단 경로 생성에 대한 성능을 실험을 통하여 제시한다.

Vision-based Mobile Robot Control System (비전 기반의 모바일 로봇 제어 시스템)

  • Chang Jae Sik;Kim Eun Yi;Jang Sang Su;Kim Hang Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.781-783
    • /
    • 2005
  • 본 논문은 손 모양 인식을 이용한 비전 기반의 보행 로봇 제어 시스템을 제안한다. 손의 모양을 인식하기 위해서 움직이는 카메라 영상으로부터 정확한 손의 경계선물 추출하고 추적하는 일이 선행되어야 한다. 따라서 본 논문에서는 민 시프트 방법을 사용한 활성 윤곽선 모델 기반의 추적 방법을 제안한다. 제안된 시스템은 손 추출기, 손 추적기, 손 모양 인식기 그리고 로봇 제어기, 4개의 모들로 구성된다. 손 추출기는 영상에서 미리 정의된 손의 모양을 가지는 피부색 영역을 추출한다. 추출된 손의 추적은 활성 윤관선 모델과 민 시프트 방법을 사용하여 실행된다. 그 후 Hue moments를 사용하여 추적된 손의 모양을 인식한다. 제안된 방법을 평가하기 위해서 본 논문에서는 2족 보행 로봇 KHR-1에 제안된 방법을 적용 한다.

  • PDF

A study on the mobile robot tele-operation using stereo vision system (스테레오 비전을 이용한 이동로봇 원격조작에 관한 연구)

  • Jung, Ki-Su;Ro, Young-Shick;Kang, Hui-Jun;Seo, Young-Su
    • Proceedings of the KIEE Conference
    • /
    • 2007.07a
    • /
    • pp.323-324
    • /
    • 2007
  • 본 논문은 네트워크을 통한 원격제어 시스템을 구축하는 연구로써 무선 랜과 AP를 이용하여 독립 무선 네트워크를 구축하고, 이동로봇의 주변 환경에 대한 레이저 센서정보와 영상정보를 전송한다. 그리고 스테레오 카메라와 Head Mounted Display를 사용하여 원격지에서 입체감 있는 영상을 보며 조작을 할 수 있게 하였으며, Head Motion Tracking를 이용해 이동로봇의 카메라를 별도의 조작 없이 컨트롤 가능하도록 방법을 제안하였다.

  • PDF

Object Detection Method on Vision Robot using Sensor Fusion (센서 융합을 이용한 이동 로봇의 물체 검출 방법)

  • Kim, Sang-Hoon
    • The KIPS Transactions:PartB
    • /
    • v.14B no.4
    • /
    • pp.249-254
    • /
    • 2007
  • A mobile robot with various types of sensors and wireless camera is introduced. We show this mobile robot can detect objects well by combining the results of active sensors and image processing algorithm. First, to detect objects, active sensors such as infrared rays sensors and supersonic waves sensors are employed together and calculates the distance in real time between the object and the robot using sensor's output. The difference between the measured value and calculated value is less than 5%. We focus on how to detect a object region well using image processing algorithm because it gives robots the ability of working for human. This paper suggests effective visual detecting system for moving objects with specified color and motion information. The proposed method includes the object extraction and definition process which uses color transformation and AWUPC computation to decide the existence of moving object. Shape information and signature algorithm are used to segment the objects from background regardless of shape changes. We add weighing values to each results from sensors and the camera. Final results are combined to only one value which represents the probability of an object in the limited distance. Sensor fusion technique improves the detection rate at least 7% higher than the technique using individual sensor.

RFID Based Mobile Robot Docking Using Estimated DOA (방향 측정 RFID를 이용한 로봇 이동 시스템)

  • Kim, Myungsik;Kim, Kwangsoo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.37C no.9
    • /
    • pp.802-810
    • /
    • 2012
  • This paper describes RFID(Radio Frequency Identification) based target acquisition and docking system. RFID is non-contact identification system, which can send relatively large amount of information using RF signal. Robot employing RFID reader can identify neighboring tag attached objects without any other sensing or supporting systems such as vision sensor. However, the current RFID does not provide spatial information of the identified object, the target docking problem remains in order to execute a task in a real environment. For the problem, the direction sensing RFID reader is developed using a dual-directional antenna. The dual-directional antenna is an antenna set, which is composed of perpendicularly positioned two identical directional antennas. By comparing the received signal strength in each antenna, the robot can know the DOA (Direction of Arrival) of transmitted RF signal. In practice, the DOA estimation poses a significant technical challenge, since the RF signal is easily distorted by the surrounded environmental conditions. Therefore, the robot loses its way to the target in an electromagnetically disturbed environment. For the problem, the g-filter based error correction algorithm is developed in this paper. The algorithm reduces the error using the difference of variances between current estimated and the previously filtered directions. The simulation and experiment results clearly demonstrate that the robot equipped with the developed system can successfully dock to a target tag in obstacles-cluttered environment.