• 제목/요약/키워드: Human-Robot interaction

검색결과 343건 처리시간 0.031초

근력과 관절력 예측을 위한 손의 생체역학 모델 (Biomechanical Model of Hand to Predict Muscle Force and Joint Force)

  • 김경수;김윤혁
    • 대한인간공학회지
    • /
    • 제28권3호
    • /
    • pp.1-6
    • /
    • 2009
  • Recently, importance of the rehabilitation of hand pathologies as well as the development of high-technology hand robot has been increased. The biomechanical model of hand is indispensable due to the difficulty of direct measurement of muscle forces and joint forces in hands. In this study, a three-dimensional biomechanical model of four fingers including three joints and ten muscles in each finger was developed and a mathematical relationship between neural commands and finger forces which represents the enslaving effect and the force deficit effect was proposed. When pressing a plate under the flexed posture, the muscle forces and the joint forces were predicted by the optimization technique. The results showed that the major activated muscles were flexion muscles (flexor digitorum profundus, radial interosseous, and ulnar interosseous). In addition, it was found that the antagonistic muscles were also activated rather than the previous models, which is more realistic phenomenon. The present model has considered the interaction among fingers, thus can be more powerful while developing a robot hand that can totally control the multiple fingers like human.

소프트웨어 로봇을 위한 인간-로봇 상호작용

  • 곽근창;지수영;조영조
    • 전자공학회지
    • /
    • 제33권3호
    • /
    • pp.49-55
    • /
    • 2006
  • 인간과 로봇의 자연스러운 상호작용을 위하여 영상과 음성을 기반으로 한 인간-로봇 상호작용 (HRI: Human Robot Interaction) 기술들을 소개한다. URC개념의 서버/클라이언트 구조를 갖는 소프트웨어 로봇에 수행 가능한 얼굴 인식 및 검증, 준 생체정보(semi biometrics)를 이용한 사용자 인식, 제스처인식, 화자인식 및 검증, 대화체 음성인식 기술들에 대하여 살펴본다. 이러한 인간-로봇 상호작용 기술들은 초고속 인터넷과 같은 IT 인프라를 이용하는 URC(Ubiquitous Robotic Companion) 기반의 지능형 서비스 로봇을 위한 핵심기술로서 사용되어진다.

  • PDF

거리영상 기반 동작인식 기술동향 (Technology Trends of Range Image based Gesture Recognition)

  • 장주용;류문욱;박순찬
    • 전자통신동향분석
    • /
    • 제29권1호
    • /
    • pp.11-20
    • /
    • 2014
  • 동작인식(gesture recognition) 기술은 입력 영상으로부터 영상에 포함된 사람들의 동작을 인식하는 기술로써 영상감시(visual surveillance), 사람-컴퓨터 상호작용(human-computer interaction), 지능로봇(intelligence robot) 등 다양한 적용분야를 가진다. 특히 최근에는 저비용의 거리 센서(range sensor) 및 효율적인 3차원 자세 추정(3D pose estimation)기술의 등장으로 동작인식은 기존의 어려움들을 극복하고 다양한 산업분야에 적용이 가능할 정도로 발전을 거듭하고 있다. 본고에서는 그러한 거리영상(range image) 기반의 동작인식 기술에 대한 최신 연구동향을 살펴본다.

  • PDF

자동 생산을 위한 윈셀 미니팩토리 (One-Cell Minifactory for Automated Manufacturing)

  • 김진오
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.300-300
    • /
    • 2000
  • Reduced life-cycle and scale of electronic products make the conventional automated manufacturing system difficult to keep on competitiveness in these days. Reduced life-cycle requires an agile adaptation of manufacturing to new products and reduced scale requires enhanced precision as well as high speed. In this research, We propose a new concept called as "One-Cell Minifactory" in which various processes are combined to produce final modules or products and human interaction can be combined easily. We hope the proposed concept can guide new developments of automated manufacturing in electronics, optics and bio-engineering.

  • PDF

CRE: 인간-로봇 상호작용을 위한 인지기반 행위제어 소프트웨어 (CRE: Perception Based Behavior Control Architecture for Human-Robot Interaction)

  • 이석한;백승민;박연출
    • 정보과학회지
    • /
    • 제24권3호
    • /
    • pp.12-24
    • /
    • 2006
  • 서비스 로봇의 지각과 행동에서의 신뢰성은 각 개별 요소기술의 완벽함으로부터 얻어지는 것이 아니라 비록 성능이 불완전한 요소기술들을 사용하더라도 각 요소기술들의 정보를 융합하고 능동적인 행위를 발생시키는 시스템적인 접근방식으로부터 얻어진다. 그러므로 본 연구에서는 자연스러운 HRI 구현을 위하여 "로봇인지 엔진"이라는 독창적인 통합 구조를 제안하였으며, 비동기/병렬 정보처리 구조, 다양한 지각정보들의 융합, 행위 결합을 위한 능동적인 지각정보 수집의 특징을 갖는다.

인간-로봇 상호작용을 위한 제스처 인식 기술 (Gesture Recognition for Natural Human-Robot Interaction)

  • 김계경;김혜진;조수현;이재연
    • 전자통신동향분석
    • /
    • 제20권2호통권92호
    • /
    • pp.14-20
    • /
    • 2005
  • 인간과 로봇과의 자연스러운 상호작용을 위하여 시각을 기반으로 한 사용자 의도 및 행위 인식에 대한 연구가 활발히 진행되고 있다. 제스처 인식은 시각을 기반으로 한 인식 분야에서 핵심 기술 분야로 연구되어 왔으며 최근에는 로봇이 인간에게 자연스러운 서비스를 제공해 주거나 로봇의 동작을 제어하기 위해 연구되고 있는 분야이다. 본 고에서는 기존에 제어된 제스처 인식 기술과 최근 인간-로봇의 상호작용을 위한 제스처인식 기술에 대하여 알아본다.

지능형 로봇과 얼굴 인식 융합기술

  • 기석철
    • 정보보호학회지
    • /
    • 제17권5호
    • /
    • pp.25-31
    • /
    • 2007
  • IT기술과 지능을 로봇에 융합시킴으로써, 로봇이 스스로 사용자를 인식하여 사용자가 원하는 일을 하고 원하는 정보를 검색해 주는 인간 중심적 서비스를 제공하는 것이 지능형 로봇의 궁극적인 목표이다. 사용자가 원하는 서비스를 제공하기 위해서는 다양한 의사소통 채널을 통해 인간과 로봇, 두 개체간의 상호작용 및 의사소통 연결 고리를 형성하는 인간-로봇 상호작용(HRI: Human-Robot Interaction)기술 개발이 반드시 필요하다. HRI 기술에는 얼굴 인식, 음성 인식, 제스처 인식 및 감정 인식 등 로봇이 인간의 의사표시를 인식하기 위한 기술들이 있다. 본고에서는 지능형 로봇과 로봇의 시각 지능화의 가장 핵심적인 기능인 얼굴 인식의 융합 기술 동향에 대해서 응용 서비스 및 표준화 이슈를 중심으로 살펴보고자 한다.

EMG 신호 기반의 웨어러블 기기를 통한 화재감지 자율 주행 로봇 제어 (Autonomous Mobile Robot Control using the Wearable Devices Based on EMG Signal for detecting fire)

  • 김진우;이우영;유제훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제26권3호
    • /
    • pp.176-181
    • /
    • 2016
  • 본 논문은 EMG(Electromyogram) 신호 기반의 웨어러블 기기를 이용하여 화재 감지 자율 주행 로봇을 제어하는 시스템을 제안하였다. 사용자의 EMG 신호를 읽어내기 위한 기기로는 Myo armband를 이용하였다. EMG 신호의 데이터를 블루투스 통신을 이용하여 컴퓨터로 전송한 후 동작을 분류하였다. 그 후 다시 블루투스를 이용하여 분류한 데이터 값을 uBrain 로봇으로 전송해 로봇이 움직일 수 있도록 구현하였다. 로봇을 조종 가능한 명령으로는 직진, 우회전, 좌회전, 정지를 구성하였다. 또한 로봇이 사용자로부터의 블루투스 신호를 받아오지 못하거나 사용자가 주행모드 변경의 명령을 내리면 로봇이 자율 주행을 하도록 하였다. 로봇이 주변을 돌아다니면서 적외선 센서로 화재를 감지하면 LED를 깜빡여 로봇 주변의 상황을 확인할 수 있도록 하였다.

비디오 에스노그래피를 이용한 서비스 로봇의 대기상태 행동패턴 연구 (The Behavioral Patterns of Neutral Affective State for Service Robot Using Video Ethnography)

  • 송현수;김민중;정상훈;석현정;권동수;김명석
    • 감성과학
    • /
    • 제11권4호
    • /
    • pp.629-636
    • /
    • 2008
  • 현재 진행되고 있는 대부분의 로봇 연구는 특정한 목적을 수행함에 있어서 기능적으로 안정적이고 원활한 움직임을 보이는 것과 더불어 사용자가 원하는 정보를 적절하게 전달하는 것에 초점을 맞춰 진행하고 있다. 본 논문에서는 로봇의 작업수행 상태가 아닌 외부로부터 입력 값이 없는 대기상태의 행동패턴을 제시하여 보다 자연스러운 인간-로봇 상호작용을 제시하고자 하였다. 로봇의 대기상태 행동패턴을 디자인함에 있어서 비디오 판독 방법을 선택하였고, 실제 서비스업에 종사하는 10명의 사람들을 비디오로 녹화하여 사람들과 상호작용이 없는 대기상태의 반복적인 행동패턴을 관찰하였다. 각각의 비디오 데이터로부터 총 21개의 반복적 행동을 기록하였고, 비슷한 항목들을 통합하여 최종적으로 11개의 행동패턴을 추출하였다. 추출된 패턴들 가운데 6개의 대표적인 행동들을 EEEX라는 로봇에 적합하도록 인코딩 작업을 하였고, 이것들이 사람들에게 올바르게 인식되는지를 확인하기 위하여 검증실험을 수행하였다. 사람들은 대부분의 로봇 행동패턴을 실험에서 의도한 바와 같이 인식하였으나 로봇의 하드웨어 특성상 몸과 팔의 움직임에서 약간의 혼동 요소가 있었다. 추후 실험을 통해 EEEX를 대형 마트의 입구에 실제로 배치하여 대기 중에 중립행동을 보일 때와 보이지 않을 때의 손님의 관심도 차이를 조사해보고자 한다.

  • PDF

교육 환경 내 소셜 로봇의 도입과 역할 제안 (A proposal for the roles of social robots introduced in educational environments)

  • 신호선;이강희
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권3호
    • /
    • pp.861-870
    • /
    • 2017
  • 본 논문은 R-learning의 연장선에서 교육 환경 내의 소셜 로봇 도입과 함께 소셜 로봇의 역할에 대해 제안한다. 소셜 로봇은 개체 특히, 인간과의 소통과 상호작용을 목적으로 하는 로봇이다. 본 논문에서는 기존의 교육 환경에서 활용되었던 로봇의 역할은 물론, 소셜 로봇의 목적에 걸맞게 교육 환경 구성원과의 상호작용과 소통을 수행하는 역할을 제안한다. 이에 대한 설명을 돕기 위해 소셜 로봇 jibo의 SDK를 활용하여 간략한 가상 시나리오를 구현하여 예시로 보인다. 시나리오는 교육적 환경에서 이용자와의 가벼운 상호작용을 목적으로 제작되었으며, jibo SDK에서 jibo의 외적 반응을 제어하는 animation 파트와 내적인 반응을 제어하는 behaviors 파트를 활용하여 제작되었다. 교육 환경 내의 투입된 소셜 로봇은 구성원과의 상호작용 및 소통과 접목된 여러 기술들을 기반으로 환경 내의 데이터를 보다 효율적으로 수집한다. 결과적으로 이를 통해 교육 환경에 대한 데이터와 정보를 제공받아 교육환경 내의 문제점의 도출, 환경 자체의 발전 및 새로운 교육 환경의 설립에 긍정적 영향을 끼칠 수 있다.