• 제목/요약/키워드: Human robot interaction

검색결과 342건 처리시간 0.03초

지식 기반 로봇을 위한 인간-로봇 상호작용 온톨로지 (Human-Robot Interaction Ontology for Knowledge Based Robot)

  • 신동수;장두수;최용석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.877-880
    • /
    • 2017
  • 가정이나 사무실 등과 같은 다양한 현실 세계에서 서비스 로봇이 자율적으로 동작하기 위해서는 복잡한 작업을 수행할 수 있어야만 한다. 다양한 센서 데이터가 있는 서비스 환경에서 고수준의 의미 정보를 이해하는 것은 지식 기반 로봇에게 필수적인 능력 중 하나이다. 본 논문에서는 서비스 로봇에게 다양한 환경에서 주어진 작업을 효과적으로 해결할 수 있도록 저레벨의 센서 데이터와 고레벨의 의미 정보를 통합하는 인간-로봇 상호작용 온톨로지를 소개한다. 지능형 로봇 지식에는 다양한 서비스의 확장성을 위해 사용자, 로봇, 인지, 환경, 행위 5가지 온톨로지로 분류한다. 지능형 로봇 지식은 일반 지식 뿐만 아니라 로봇의 수행 능력, 구성요소 등의 전문 지식까지 정의하고 서비스 에이전트 간 상호작용을 위한 인터페이스를 표준화함으로써 지능형 로봇에 적합한 지능을 제공한다. Turtlebot2을 이용한 실험을 통해 온톨로지 기반의 통합 로봇 지식의 높은 효율성을 확인 할 수 있었다.

공압제어를 통한 2DOF 팽창식 관절 액추에이터 제작 (Manufacturing 2DOF Inflatable Joint Actuator by Pneumatic Control)

  • 오남수;이한얼;로드리그 휴고
    • 로봇학회논문지
    • /
    • 제13권2호
    • /
    • pp.92-96
    • /
    • 2018
  • In this paper, a soft robotic arm which can prevent impact injury during human-robot interaction is introduced. Two degrees of freedom joint are required to realize free movement of the robotic arm. A robotic joint concept with a single degree of freedom is presented using simple inflatable elements, and then extended to form a robotic joint with two degrees of freedom joint using similar manufacturing methods. The robotic joint with a single degree of freedom has a joint angle of $0^{\circ}$ bending angle when both chamber are inflated at equal pressures and maximum bending angles of $28.4^{\circ}$ and $27.1^{\circ}$ when a single chamber if inflated. The robotic joint with two degrees of freedom also has a bending angle of $0^{\circ}$ in both direction when all three chambers are inflated at equal pressures. When either one or two chambers were pressurized, the robotic joint performed bending towards the uninflated chambers.

Tiny and Blurred Face Alignment for Long Distance Face Recognition

  • Ban, Kyu-Dae;Lee, Jae-Yeon;Kim, Do-Hyung;Kim, Jae-Hong;Chung, Yun-Koo
    • ETRI Journal
    • /
    • 제33권2호
    • /
    • pp.251-258
    • /
    • 2011
  • Applying face alignment after face detection exerts a heavy influence on face recognition. Many researchers have recently investigated face alignment using databases collected from images taken at close distances and with low magnification. However, in the cases of home-service robots, captured images generally are of low resolution and low quality. Therefore, previous face alignment research, such as eye detection, is not appropriate for robot environments. The main purpose of this paper is to provide a new and effective approach in the alignment of small and blurred faces. We propose a face alignment method using the confidence value of Real-AdaBoost with a modified census transform feature. We also evaluate the face recognition system to compare the proposed face alignment module with those of other systems. Experimental results show that the proposed method has a high recognition rate, higher than face alignment methods using a manually-marked eye position.

2단계 히든마코프 모델을 이용한 제스쳐의 성능향상 연구 (Improvement of Gesture Recognition using 2-stage HMM)

  • 정훤재;박현준;김동한
    • 제어로봇시스템학회논문지
    • /
    • 제21권11호
    • /
    • pp.1034-1037
    • /
    • 2015
  • In recent years in the field of robotics, various methods have been developed to create an intimate relationship between people and robots. These methods include speech, vision, and biometrics recognition as well as gesture-based interaction. These recognition technologies are used in various wearable devices, smartphones and other electric devices for convenience. Among these technologies, gesture recognition is the most commonly used and appropriate technology for wearable devices. Gesture recognition can be classified as contact or noncontact gesture recognition. This paper proposes contact gesture recognition with IMU and EMG sensors by using the hidden Markov model (HMM) twice. Several simple behaviors make main gestures through the one-stage HMM. It is equal to the Hidden Markov model process, which is well known for pattern recognition. Additionally, the sequence of the main gestures, which comes from the one-stage HMM, creates some higher-order gestures through the two-stage HMM. In this way, more natural and intelligent gestures can be implemented through simple gestures. This advanced process can play a larger role in gesture recognition-based UX for many wearable and smart devices.

얼굴 표정 인식 기반 컨텐츠 선호도 추론 시스템 (Facial expression recognition-based contents preference inference system)

  • 이연곤;조덕현;장준익;서일홍
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2013년도 제47차 동계학술대회논문집 21권1호
    • /
    • pp.201-204
    • /
    • 2013
  • 디지털 컨텐츠의 종류와 양이 폭발적으로 증가하면서 컨텐츠 선호도 투표는 강한 파급력을 지니게 되었다. 하지만 컨텐츠 소비자가 직접 투표를 해야 하는 현재의 방법은 사람들의 투표 참여율이 저조하며, 조작 위험성이 높다는 문제점이 있다. 이에 본 논문에서는 컨텐츠 소비자의 얼굴 표정에 드러나는 감정을 인식함으로써 자동으로 컨텐츠 선호도를 추론하는 시스템을 제안한다. 본 논문에서 제안하는 시스템은 기존의 수동 컨텐츠 선호도 투표 시스템의 문제점인 컨텐츠 소비자의 부담감과 번거로움, 조작 위험성 등을 해소함으로써 보다 편리하고 효율적이며 신뢰도 높은 서비스를 제공하는 것을 목표로 한다. 따라서 본 논문에서는 컨텐츠 선호도 추론 시스템을 구축하기 위한 방법을 구체적으로 제안하고, 실험을 통하여 제안하는 시스템의 실용성과 효율성을 보인다.

  • PDF

감성적 인간 로봇 상호작용을 위한 음성감정 인식 (Speech emotion recognition for affective human robot interaction)

  • 장광동;권오욱
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

텔레프레즌스 서비스를 위한 몰입도 분석 기술 (Engagement Analysis Technology for Tele-presence Services)

  • 윤현진;한미경;장종현
    • 전자통신동향분석
    • /
    • 제32권5호
    • /
    • pp.10-19
    • /
    • 2017
  • A Telepresence service is an advanced video conferencing service at aimed providing remote users with the feeling of being present together at a particular location for a face-to-face group meeting. The effectiveness in this type of meeting can be further increased by automatically recognizing the audiovisual behaviors of the video conferencing users, accurately inferring their level of engagement from the recognized reactions, and providing proper feedback on their engagement state. In this paper, we review the recent developments of such engagement analysis techniques being utilized in various applications, such as human-robot interaction, content evaluation, telematics, and online collaboration services. In addition, we introduce a real-time engagement analysis framework employed in our telepresence service platform for an increased participation in online group collaboration settings.

얼굴표정 인식 기법의 최신 연구 동향 (Recent Research Trends of Facial Expression Recognition)

  • 이민규;송병철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.128-130
    • /
    • 2019
  • 최근 딥러닝의 급격한 발전과 함께 얼굴표정 인식(facial expression recognition) 기술이 상당한 진보를 이루었다. 얼굴표정 인식은 컴퓨터 비전 분야에서 지속적으로 관심을 받고 있으며, 인포테인먼트 시스템(Infotainment system), 인간-로봇 상호작용(human-robot interaction) 등 다양한 분야에서 활용되고 있다. 그럼에도 불구하고 얼굴표정 인식 분야는 학습 데이터의 부족, 얼굴 각도의 변화 또는 occlusion 등과 같은 많은 문제들이 존재한다. 본 논문은 얼굴표정 인식 분야에서의 위와 같은 고유한 문제들을 다룬 기술들을 포함하여 고전적인 기법부터 최신 기법에 대한 연구 동향을 제시한다.

  • PDF

서비스 로봇의 안전 및 성능 평가 기술

  • 정영숙;이경호;서범수
    • 정보와 통신
    • /
    • 제33권8호
    • /
    • pp.36-43
    • /
    • 2016
  • 최근 인공지능의 급부상과 함께 서비스 로봇은 물론 산업용 로봇에 이르기까지 ICT 융합을 통한 HRI(Human Robot Interaction) 지능화가 가속화되고 있다. 제조, 물류, 공공장소, 가정 등 다양한 환경에서 인간과 가까이 공존하며 상호작용하는 지능로봇의 안전과 성능에 기반한 신뢰성 확보는 성장하는 로봇 시장에 중요한 이슈로 떠오르고 있다. 2014년 실내외에서 운용되는 개인지원로봇에 대한 기본 안전 요구 표준인 ISO 13482가 공표되고 유럽, 일본을 비롯한 세계시장은 국제 표준 에 기반한 서비스 로봇의 인증을 요구하고 있다. 이에 최근 국내 로봇 기업의 해외 시장 진출에 있어 가장 우선적으로 요구받고 있는 안전 요구조건과 검증에 필요한 위험 평가 프로세스를 소개하고 서비스 로봇의 안전 및 성능 평가 기술과 표준에 대하여 살펴본다.

Hybrid Facial Representations for Emotion Recognition

  • Yun, Woo-Han;Kim, DoHyung;Park, Chankyu;Kim, Jaehong
    • ETRI Journal
    • /
    • 제35권6호
    • /
    • pp.1021-1028
    • /
    • 2013
  • Automatic facial expression recognition is a widely studied problem in computer vision and human-robot interaction. There has been a range of studies for representing facial descriptors for facial expression recognition. Some prominent descriptors were presented in the first facial expression recognition and analysis challenge (FERA2011). In that competition, the Local Gabor Binary Pattern Histogram Sequence descriptor showed the most powerful description capability. In this paper, we introduce hybrid facial representations for facial expression recognition, which have more powerful description capability with lower dimensionality. Our descriptors consist of a block-based descriptor and a pixel-based descriptor. The block-based descriptor represents the micro-orientation and micro-geometric structure information. The pixel-based descriptor represents texture information. We validate our descriptors on two public databases, and the results show that our descriptors perform well with a relatively low dimensionality.