• 제목/요약/키워드: Human robot interaction

검색결과 343건 처리시간 0.022초

인간 로봇 상호작용을 위한 강인한 스켈레톤 특징점 추출기 설계 (Design of Robust Skeleton Feature Extractor for Human-Robot-Interaction)

  • 김문환;주영훈;박진배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.362-365
    • /
    • 2006
  • 본 논문에서는 인간 로봇 상호 작용을 위해 정확한 스켈레톤 특징점을 추출하는 강인한 추출기를 설계한다. 제안된 특징점 추출기는 인간의 움직임 정보로부터 얻어진 색상, 윤곽선, 시간차 정보 및 가상 신체 모델을 이용하여 정확한 특징점 위치를 찾아낸다. 또한 특징점 추출에 소요되는 탐색 시간을 줄이기 위해 격자박스를 이용한 원형 탐색 기법을 도입하였다. 최종적으로 기법의 우수성을 확인하기 위해 다양한 동작의 특징점 추출 실험을 수행하였다.

  • PDF

비의식적 정서가 동작수행 정보처리과정 중 운동 프로그램에 미치는 효과 (The Effects of Unconscious Emotion on Motor Program of Information Processing for Movement Execution)

  • 김재우
    • 한국실천공학교육학회논문지
    • /
    • 제1권1호
    • /
    • pp.91-98
    • /
    • 2009
  • 인간-로봇 상호작용 접근에서 로봇이 정서를 인식하고 표현하고 대처할 수 있도록 로봇을 만드는 것은 미래 로봇산업에서 중요한 과제이다. 본 연구의 목적은 긍정적 부정적 정서 정보에 대한 자동적 처리과정에 의해 동작수행을 위한 정보처리 과정 중에 운동 프로그램 단계에 차별적인 영향을 미치는가를 규명하는 것이었다. 13명(남=11, 여=2)의 실험자자가 본 연구에 참여하여 웃는 얼굴과 화난 얼굴을 10ms의 비의식적 수준에서 정서적 점화자극을 제시받은 후 단추누르기 과제, 단추 누른 후 테니스 공 1개 타격, 단추 누른 후 테니스 공 2개 타격하는 과제를 수행하였다. 그 결과 긍정적 정서 자극은 부정적 정서자극과 비교해 복잡한 운동을 계획하는데 더욱 빠른것으로 나타났다. 이러한 결과는 인간-로봇 상호작용에서 로봇이 인간의 정서를 인식하고 표현하기 위해서는 적어도 2개의 정서 인터페이스가 있어야 함을 암시한다.

  • PDF

로봇활용 공동 주의 훈련자극에 대한 사용자 반응상태를 추정하는 프로세스 (The process of estimating user response to training stimuli of joint attention using a robot)

  • 김다영;윤상석
    • 한국정보통신학회논문지
    • /
    • 제25권10호
    • /
    • pp.1427-1434
    • /
    • 2021
  • 본 연구는 사회성 상호작용 훈련자극에 반응하는 아동의 행동 및 정서적 긴장상태를 연산하는 심리반응 상태 추정 프로세스를 제안한다. 행동 중재에 필요한 훈련자극으로는 공동 주의(Joint attention) 사회성 훈련을 채택하고, 훈련프로토콜은 불연속 개별시도 훈련(DTT: Discrete trial training)기법이 적용된다. 공동 주의 훈련에서 사용자의 집중과 긴장 정도를 확인하기 위해 3가지 훈련자극용 콘텐츠를 구성한 후, 캐릭터 형태의 탁상 로봇을 이용하여 사용자에게 훈련자극을 수행하게 된다. 그런 다음, 비전 기반 헤드 포즈 인식기와 기하학 연산모델로 사용자 응시반응을 추정하고, PPG와 GSR의 생체신호를 심박변이도와 히스토그램 기법으로 신경계 반응을 분석한다. 로봇을 활용한 실험에서 공동 주의에 대한 각 콘텐츠 별 훈련에 사용자의 심리반응을 정량화 할 수 있음을 확인하였다.

가상 운전 인터페이스를 활용한 자동차 협력 원격조종 (Shared Vehicle Teleoperation using a Virtual Driving Interface)

  • 김재석;이광현;유지환
    • 제어로봇시스템학회논문지
    • /
    • 제21권3호
    • /
    • pp.243-249
    • /
    • 2015
  • In direct vehicle teleoperation, a human operator drives a vehicle at a distance through a pair of master and slave device. However, if there is time delay, it is difficult to remotely drive the vehicle due to slow response. In order to address this problem, we introduced a novel methodology of shared vehicle teleoperation using a virtual driving interface. The methodology was developed with four components: 1) virtual driving environment, 2) interface for virtual driving environment, 3) path generator based on virtual driving trajectory, 4) path following controller. Experimental results showed the effectiveness of the proposed approach in simple and cluttered driving environment as well. In the experiments, we compared two sampling methods, fixed sampling time and user defined instant, and finally merged method showed best remote driving performance in term of completion time and number of collision.

제한된 환경 속에서 휴머노이드를 위한 인터랙티브 모션 리타겟팅 (Interactive Motion Retargeting for Humanoid in Constrained Environment)

  • 남하종;이지혜;최명걸
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.1-8
    • /
    • 2017
  • 본 논문에서는 인체 모션 데이터를 공간적 제약이 많은 환경 속에 있는 휴머노이드의 몸체에 맞추어 리타겟팅하는 기술을 소개한다. 주어진 모션 데이터는 물체를 손으로 잡거나 장애물 사이를 피해 다니는 등의 세밀한 인터랙션을 포함하고 있다고 가정한다. 또한 휴머노이드의 관절 구조는 인체 관절 구조와 다르며 주변 환경의 모양도 원본 모션이 촬영 될 당시와 서로 다르다고 가정한다. 이러한 조건 하에서 단순히 몸체의 변화만 고려한 리타겟팅 기법을 적용한다면 원본 모션 데이터에서 나타난 인터랙션의 내용을 그대로 보존하기 어렵다. 본 논문에서는 모션 데이터를 휴머노이드 몸체에 맞게 리타겟팅하는 문제와 인터랙션의 내용을 보존하는 문제를 나누어서 독립적으로 해결하는 방법을 제안한다. 먼저 환경 모델과의 인터랙션은 무시하고 모션 데이터를 휴머노이드 몸체에 맞게 리타겟팅 한다. 다음, 환경 모델의 모양을 휴머노이드 모션에 부합하도록 변형하여 원본 데이터에서 나타난 인터랙션이 재현되도록 한다. 마지막으로 휴머노이드 몸체와 환경 모델 사이의 공간적 상관 관계에 대한 제약 조건을 설정하고 환경 모델은 다시 원래 모양으로 되돌린다. 보스턴 다이나믹 사의 아틀라스 로봇 모델을 사용한 실험을 통해 제시된 방법의 유용성을 검증하였다. 향후 모션 데이터 트레킹을 통한 휴머노이드 동작 제어 문제에 사용될 수 있을 것으로 기대된다.

인간과 로봇의 도덕성 판단, 마음지각과 불멸지각의 관계 (Moral Judgment, Mind Perception and Immortality Perception of Humans and Robots)

  • 신홍임
    • 감성과학
    • /
    • 제26권3호
    • /
    • pp.29-40
    • /
    • 2023
  • 많은 사람들이 불멸에 관심이 있지만, 죽은 이의 불멸은 사회과학에서 지금까지 거의 다루어지지 않은 주제다. 본 연구에서는 죽은 이들의 도덕성 판단과 마음지각에 따라 불멸지각이 달라지는지를 검증하였다. 연구 1에서는 도덕적으로 악한 사람, 선한 사람 및 도덕성과 연관되지 않은 인물에 대한 글을 제시하고, 도덕성 판단, 마음지각 및 불멸지각의 관계를 분석하였다. 그 결과 도덕적으로 선한 인물에 대한 불멸의 지각정도가 악한 인물 또는 중립적인 인물에 대한 불멸의 지각정도보다 더 높게 나타났다. 또한 인물의 도덕성 판단과 마음지각은 불멸을 지각하는 정도와 유의한 상관관계가 나타났다. 연구 2에서는 도덕적으로 선한 로봇, 악한 로봇 및 도덕성과 연관되지 않은, 기능적 로봇에 대한 글을 제시하고, 로봇에 대한 마음지각 및 불멸지각의 관계를 분석하였다. 그 결과 로봇의 도덕성판단과 마음지각이 높을수록 로봇의 불멸을 지각하는 정도가 증가하였다. 이 결과는 도덕성 판단과 마음지각이 인간-로봇의 상호작용에서 어려움을 극복하는 변인으로 기여할 가능성을 보여준다.

Cascade 안면 검출기와 컨볼루셔널 신경망을 이용한 얼굴 분류 (Face Classification Using Cascade Facial Detection and Convolutional Neural Network)

  • 유제훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제26권1호
    • /
    • pp.70-75
    • /
    • 2016
  • 머신비전을 사용하여 사람의 얼굴을 인식하는 다양한 연구가 진행되고 있다. 머신비전은 기계에 시각을 부여하여 이미지를 분류 혹은 분석하는 기술을 의미한다. 본 논문에서는 이러한 머신비전 기술을 적용한 얼굴을 분류하는 알고리즘을 제안한다. 이 얼굴 분류 알고리즘을 구현하기 위해 컨볼루셔널 신경망(Convolution neural network)과 Cascade 안면 검출기를 사용하였고, 피험자들의 얼굴을 분류하였다. 구현한 얼굴 분류 알고리즘의 학습을 위해 한 피험자 당 이미지 2,000장, 3,000장, 40,00장을 10회와 20회 컨볼루셔널 신경망에 각각 반복하여 학습과 분류를 진행하였고, 학습된 컨볼루셔널 신경망과 얼굴 분류 알고리즘의 실효성을 테스트하기 위해 약 6,000장의 이미지를 분류하였다. 또한 USB 카메라 영상을 실험 데이터로 입력받아 실시간으로 얼굴을 검출하고 분류하는 시스템을 구현하였다.

3D Feature Based Tracking using SVM

  • Kim, Se-Hoon;Choi, Seung-Joon;Kim, Sung-Jin;Won, Sang-Chul
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1458-1463
    • /
    • 2004
  • Tracking is one of the most important pre-required task for many application such as human-computer interaction through gesture and face recognition, motion analysis, visual servoing, augment reality, industrial assembly and robot obstacle avoidance. Recently, 3D information of object is required in realtime for many aforementioned applications. 3D tracking is difficult problem to solve because during the image formation process of the camera, explicit 3D information about objects in the scene is lost. Recently, many vision system use stereo camera especially for 3D tracking. The 3D feature based tracking(3DFBT) which is on of the 3D tracking system using stereo vision have many advantage compare to other tracking methods. If we assumed the correspondence problem which is one of the subproblem of 3DFBT is solved, the accuracy of tracking depends on the accuracy of camera calibration. However, The existing calibration method based on accurate camera model so that modelling error and weakness to lens distortion are embedded. Therefore, this thesis proposes 3D feature based tracking method using SVM which is used to solve reconstruction problem.

  • PDF

다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망 (Multi-Scale, Multi-Object and Real-Time Face Detection and Head Pose Estimation Using Deep Neural Networks)

  • 안병태;최동걸;권인소
    • 로봇학회논문지
    • /
    • 제12권3호
    • /
    • pp.313-321
    • /
    • 2017
  • One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than $4.5^{\circ}$ in real-time.

안정적인 실시간 얼굴 특징점 추적과 감정인식 응용 (Robust Real-time Tracking of Facial Features with Application to Emotion Recognition)

  • 안병태;김응희;손진훈;권인소
    • 로봇학회논문지
    • /
    • 제8권4호
    • /
    • pp.266-272
    • /
    • 2013
  • Facial feature extraction and tracking are essential steps in human-robot-interaction (HRI) field such as face recognition, gaze estimation, and emotion recognition. Active shape model (ASM) is one of the successful generative models that extract the facial features. However, applying only ASM is not adequate for modeling a face in actual applications, because positions of facial features are unstably extracted due to limitation of the number of iterations in the ASM fitting algorithm. The unaccurate positions of facial features decrease the performance of the emotion recognition. In this paper, we propose real-time facial feature extraction and tracking framework using ASM and LK optical flow for emotion recognition. LK optical flow is desirable to estimate time-varying geometric parameters in sequential face images. In addition, we introduce a straightforward method to avoid tracking failure caused by partial occlusions that can be a serious problem for tracking based algorithm. Emotion recognition experiments with k-NN and SVM classifier shows over 95% classification accuracy for three emotions: "joy", "anger", and "disgust".