• Title/Summary/Keyword: Humanoid robot vision

Search Result 25, Processing Time 0.024 seconds

Stairs Walking of a Biped Robot (2족 보행 로봇의 계단 보행)

  • 성영휘;안희욱
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.5 no.1
    • /
    • pp.46-52
    • /
    • 2004
  • In this paper, we introduce a case study of developing a miniature humanoid robot which has 16 degrees of freedom, 42 cm heights, and 1.5kg weights. For easy implimentation, the integrated RC-servo motors are adopted as actuators and a digital camera is equipped on its head. So, it can transmit vision data to a remote host computer via wireless modem. The robot can perform staircase walking as well as straight walking and turning to any direction. The user-interface program running on the host computer contains a robot graphic simulator and a motion editor which are used to generate and verify the robot's walking motion. The experimental results show that the robot has various walking capability including straight walking, turning, and stairs walking.

  • PDF

Research on Intelligent Combat Robot System as a Game-Changer in Future Warfare

  • Byung-Hyo Park;Sang-Hyuk Park
    • International Journal of Advanced Culture Technology
    • /
    • v.11 no.4
    • /
    • pp.328-332
    • /
    • 2023
  • The Army has presented eight game-changers for future warfare through 'Army Vision 2050,' including Intelligent Combat Robots, Super Soldiers, Energy Weapons, Hypersonic Weapons, Non-lethal Weapons, Autonomous Mobile Equipment, Intelligent Command and Control Systems, and Energy Supply Systems. This study focuses on Intelligent Combat Robots, considering them as the most crucial element among the mentioned innovations. How will Intelligent Combat Robots be utilized on the future battlefield? The future battlefield is expected to take the form of combined human-robot warfare, where advancements in science and technology allow intelligent robots to replace certain human roles. Especially, tasks known as Dirty, Difficult, Dangerous, and Dull (4D) in warfare are expected to be assigned to robots. This study suggests three forms of Intelligent Robots: humanoid robots, biomimetic robots, and swarm drones.

Egomotion Compensation of a Humanoid Robot by Using Stereo Vision (스테레오 비전을 이용한 휴머노이드 로봇의 자기 움직임 보정)

  • Kang, Tae-Koo;Park, Gwi-Tae
    • Proceedings of the KIEE Conference
    • /
    • 2008.04a
    • /
    • pp.257-258
    • /
    • 2008
  • 지능형 로봇에서 환경인식과 이러한 환경에 따른 행동 결정 능력은 로봇이 필수적으로 갖추어야 할 기능이다. 특히 상체의 움직임이 많은 휴머노이드 로봇에서 비전기반의 높은 환경에 대한 인식 기능을 위해서는 전처리 단계로 로봇 자체의 움직임을 감쇄 시켜주는 기능이 필수적이다. 본 논문에서는 Gaussian 모델과 Wavelet을 사용하여 추적하고자 하는 영역을 추출하고 PCA와 FNCC를 이용하여 움직임을 상쇄시키는 방법을 제안한다. 본 방법은 기존의 픽셀 단위로 움직임을 분석하는 방법에 비하여 간단하면서도 우수한 성능을 보인다. 본 시스템을 제작한 로봇에 적용한 결과 보다 높은 인식 성능을 얻을 수 있었다.

  • PDF

A study on the Stereo-Vision based Egomotion compensation for humanoid Robot (휴머노이드 로봇을 위한 스테레오 비전기반 자체 움직임 보정연구)

  • Kang, Tae-Koo;Park, Gwi-Tae
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.1827-1828
    • /
    • 2008
  • 지능형 휴머노이드 로봇에서 환경에 따른 행동결정능력은 로봇이 필수적으로 갖추어야 할 기능이다. 특히 비전기반의 환경인식 기술은 로봇에서 가장 많은 보행 환경 정보를 제공한다. 따라서 보다 정확한 환경인식 성능을 위해서는 상체의 움직임이 많은 휴머노이드 로봇에서 비전기반의 높은 환경에 대한 인식 기능을 위해 전처리 단계로 로봇 자체의 움직임을 상쇄 시켜주는 기능이 필수적이다. 본 논문에서는 Gaussian 모델과 Wavelet Transform을 사용하여 추적하고자 하는 영역을 추출하고 PCA를 이용하여 로봇 자체의 움직임을 상쇄시키는 방법을 제안한다. 본 방법은 영상 전체를 분석함으로써 기존의 픽셀 단위로 움직임을 분석하는 방법에 비하여 간단하면서도 우수한 성능을 보인다. 본 시스템을 제작한 로봇에 적용한 결과 보다 높은 인식 성능을 얻을 수 있었다.

  • PDF

Human Tracking and Body Silhouette Extraction System for Humanoid Robot (휴머노이드 로봇을 위한 사람 검출, 추적 및 실루엣 추출 시스템)

  • Kwak, Soo-Yeong;Byun, Hye-Ran
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.6C
    • /
    • pp.593-603
    • /
    • 2009
  • In this paper, we propose a new integrated computer vision system designed to track multiple human beings and extract their silhouette with an active stereo camera. The proposed system consists of three modules: detection, tracking and silhouette extraction. Detection was performed by camera ego-motion compensation and disparity segmentation. For tracking, we present an efficient mean shift based tracking method in which the tracking objects are characterized as disparity weighted color histograms. The silhouette was obtained by two-step segmentation. A trimap is estimated in advance and then this was effectively incorporated into the graph cut framework for fine segmentation. The proposed system was evaluated with respect to ground truth data and it was shown to detect and track multiple people very well and also produce high quality silhouettes. The proposed system can assist in gesture and gait recognition in field of Human-Robot Interaction (HRI).