• Title/Summary/Keyword: 인간 로봇 상호작용

Search Result 169, Processing Time 0.022 seconds

The Emotion Inference Model Bassed using Neural Network (신경망을 이용한 감정추론 모델)

  • 김상헌;정재영;이원호;이형우;노태정
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.309-312
    • /
    • 2004
  • 본 논문에서는 인간과 로봇의 상호작용을 위해 감정에 기반한 감정 처리 모델을 설계하였다. 감정 재현 기술은 사용자에게 친근감을 주기 위해 로봇 시스템이 제스처, 표정을 통하여 사람이나 동물의 감성과 동작을 표현하는 분야이다. 로봇이 감정을 표현하는 문제에는 많은 심리학적, 해부학적, 공학적 문제가 관련된다. 여러가지 애매모호한 상황임에 불구하고 심리학자인 Ekman과 Friesen에 의해 사람의 여섯 가지 기본 표정이 놀람, 공포, 혐오, 행복감, 두려움, 슬픔은 문화에 영향을 받지 않고 공통적으로 인식되는 보편성을 가지고 있는 것으로 연구됐다. 사람의 행동에 대한 로봇의 반응이 학습되어 감정모델이 결정되고, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 본 논문에서는 인간과 로봇과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나 갈 수 있는 감정 처리 모델을 제안한다.

  • PDF

CNN-based Object Detection for Human-Computer Interaction (인간-컴퓨터 상호작용을 위한 CNN 기반 객체 검출)

  • Pak, Myeong-Suk;Kim, Sang-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.1110-1111
    • /
    • 2019
  • 비전 기반 제스처 인식은 비 침입적이고 저렴한 비용으로 자연스러운 인간-컴퓨터 상호 작용을 제공한다. 로봇의 사용이 증가함에 따라 인간-로봇 상호 작용은 점점 더 중요해질 것이다. 최근 효율적인 딥러닝 기술이 연구되고 있다. 본 연구는 인간 컴퓨터 상호 작용을 위해 CNN을 기반으로 한 얼굴 및 손 동작의 인식을 위해 객체 검출 기법의 적용 결과를 제시한다.

The effect of trust repair behavior on human-robot interaction (로봇의 신뢰회복 행동이 인간-로봇 상호작용에 미치는 영향)

  • Hoyoung, Maeng;Whani, Kim;Jaeun, Park;Sowon, Hahn
    • Korean Journal of Cognitive Science
    • /
    • v.33 no.4
    • /
    • pp.205-228
    • /
    • 2022
  • This study aimed to confirm the effect of social and relational behavior types of robots on human cognition in human-robot interaction. In the experiment, the participants evaluated trust in robots by watching a video on the robot Nao interacting with a human, in which the robot made an error and then made an effort to restore trust. The trust recovery behavior was set as three conditions: an internal attribution in which the robot acknowledges and apologizes for an error, a condition in which the robot apologizes for an error but attributes it externally, and a non-action condition in which the robot denies the error itself and does not take any action for the error. As the result, in all three cases, the error was perceived as less serious when the robot apologized than when it did not, and the ability of the robot was also highly evaluated. These results provide evidence that human attitudes towards robots can respond sensitively depending on the robot's behavior and how they overcome errors, suggesting that human perception towards robots can change. In particular, the fact that robots are more trustworthy when they acknowledge and apologize for their own errors shows that robots can promote positive human-robot interactions through human-like social and polite behavior.

Cognition·Expression Technology Trend for Human and Robot Interaction (인간과 로봇의 상호작용을 위한 판단·표현기술 동향)

  • Park, C.S.;Jang, M.S.;Lee, D.W.;Kim, J.H.
    • Electronics and Telecommunications Trends
    • /
    • v.28 no.4
    • /
    • pp.86-96
    • /
    • 2013
  • 인간-로봇 상호작용 기술(HRI: Human-Robot Interaction Technology)은 로봇이 상호작용 상황과 사용자의 의도를 판단함으로써 상황에 적합한 반응과 행동을 계획하여 순조로운 의사소통 및 상호협력을 실행하게 하는 인식-판단-표현 연계 기술이다. HRI 기술은 인간의 지각, 인지, 표현 기능을 모사함으로써 로봇에 생명을 불어 넣는 로봇 핵심 기술로 개인서비스 로봇뿐 아니라 전문서비스 로봇 및 타 서비스 분야까지 폭넓게 적용될 수 있어 로봇융합산업 전반에 대한 파급력이 매우 큰 기술이다. 본고에서는 판단과 표현기술을 중심으로 HRI 기술의 국내외 기술 동향을 살펴보고 향후 HRI 기술이 나아가야 할 방향에 대해 기술한다.

  • PDF

인간-로봇 상호작용을 위한 자세변화에 대응 가능한 얼굴 검출 및 인식 방법

  • 이태근;박성기;김문상
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 2004.05a
    • /
    • pp.27-27
    • /
    • 2004
  • 이 논문에서는 이동 로봇 플랫폼 위에 장착되는 비전 시스템을 이용하여 대상 사람의 얼굴위치를 검출, 사용자 인식을 수행하는 방법론을 제시한다. 본 연구에서 적용대상으로 하는 이동로봇은 실내에서 사용 가능한 홈 서비스 로봇(Hombot-2)으로 인간-로봇 상호작용 (human-robot interaction, HCI)이 중요한 기능 중에 하나이다. 로봇에 장착된 스테레오 비전 카메라에서 획득하게 되는 얼굴 영상은 임의로 움직이는 로봇 작업 반경 밖에 있는 사용자의 특성 상 얼굴 영상이 비교적 작게 얻어지고 정면얼굴에서 벗어난 가변적 얼굴 자세변화를 갖게 된다.(중략)

  • PDF

Analysis on Children Robot Interaction with Dramatic Playes for Better Augmented Reality (어린이 극놀이 증강현실감을 위한 아동로봇상호작용 분석)

  • Han, Jeong-Hye
    • Journal of Digital Contents Society
    • /
    • v.17 no.6
    • /
    • pp.531-536
    • /
    • 2016
  • This study highlights the effectiveness of analyzing the feelings children have when interacting with robots in a dramatic play setting using augmented reality in Human Robot Interaction (HRI). Existing dramatic play activities using robots by QR-markers were edited, and their weaknesses have been corrected so that children could interact more effectively with robots. Additionally, children's levels of interest and engagement in dramatic play activities, the accuracy of robotic props, and the smartness of robots were analyzed throughout children's interactions during such activities using augmented reality. Younger participants were more likely to find robots interesting and intelligent, and participants with no previous experience with robots had relatively higher levels of interest in robots and tended to notice changes in robots' costumes.

State-of-the-Art of Domestic Emotional Robots (국내 감성로봇 연구 현황)

  • Cha, Go-Eum;Kim, Eun Jin;Lee, Kang-Hee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.01a
    • /
    • pp.161-162
    • /
    • 2017
  • 외부환경을 인식하고 상황을 판단해 자율적으로 행동하는 지능형 서비스 로봇은 앞으로 새로운 시장을 열어줄 것으로 기대되며 이와 관련된 연구와 개발이 빠르게 확대되고 있다. 이러한 서비스 로봇에게 가장 중요한 기능은 인간과의 원활한 상호작용이다. 여기서 말하는 상호작용이란 단순히 인간이 원하는 것을 명령하고, 로봇이 이 명령을 수행하는 것에 그치는 것이 아니라, 로봇이 스스로 인간의 감정을 파악하고, 이에 대한 적절한 로봇 자신의 감정 표출이나 서비스, 행동을 제공함으로써 직접적인 소통이 이루어지는 것을 의미한다. 이렇게 로봇이 자연스럽게 인간과 함께 공존하기 위해서 감성 로봇(Emotional Robot) 분야에서 관련된 연구가 활발히 진행되고 있다 본 논문에서는 국내의 감성 로봇의 연구 현황과 발전 방향에 대해 서술한다.

  • PDF

Natural Hand Detection and Tracking (자연스러운 손 추출 및 추적)

  • Kim, Hye-Jin;Kwak, Keun-Chang;Kim, Do-Hyung;Bae, Kyung-Sook;Yoon, Ho-Sub;Chi, Su-Young
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.148-153
    • /
    • 2006
  • 인간-컴퓨터 상호작용(HCI) 기술은 과거 컴퓨터란 어렵고 소수의 숙련자만이 다루는 것이라는 인식을 바꾸어 놓았다. HCI 는 컴퓨터 사용자인 인간에게 거부감 없이 수용되기 위해 인간과 컴퓨터가 조화를 이루는데 많은 성과를 거두어왔다. 컴퓨터 비전에 기반을 두고 인간과 컴퓨터의 상호작용을 위하여 사용자 의도 및 행위 인식 연구들이 많이 행해져 왔다. 특히 손을 이용한 제스처는 인간과 인간, 인간과 컴퓨터 그리고 최근에 각광받고 있는 인간과 로봇의 상호작용에 중요한 역할을 해오고 있다. 본 논문에서 제안하는 손 추출 및 추적 알고리즘은 비전에 기반한 호출자 인식과 손 추적 알고리즘을 병행한 자연스러운 손 추출 및 추적 알고리즘이다. 인간과 인간 사이의 상호간의 주의집중 방식인 호출 제스처를 인식하여 기반하여 사용자가 인간과 의사소통 하는 것과 마찬가지로 컴퓨터/로봇의 주의집중을 끌도록 하였다. 또한 호출 제스처에 의해서 추출된 손동작을 추적하는 알고리즘을 개발하였다. 호출 제스처는 카메라 앞에 존재할 때 컴퓨터/로봇의 사용자가 자신에게 주의를 끌 수 있는 자연스러운 행동이다. 호출 제스처 인식을 통해 복수의 사람이 존재하는 상황 하에서 또한 원거리에서도 사용자는 자신의 의사를 전달하고자 함을 컴퓨터/로봇에게 알릴 수 있다. 호출 제스처를 이용한 손 추출 방식은 자연스러운 손 추출을 할 수 있도록 한다. 현재까지 알려진 손 추출 방식은 피부색을 이용하고 일정 범위 안에 손이 존재한다는 가정하에 이루어져왔다. 이는 사용자가 제스처를 하기 위해서는 특정 자세로 고정되어 있어야 함을 의미한다. 그러나 호출 제스처를 통해 손을 추출하게 될 경우 서거나 앉거나 심지어 누워있는 상태 등 자연스러운 자세에서 손을 추출할 수 있게 되어 사용자의 불편함을 해소 할 수 있다. 손 추적 알고리즘은 자연스러운 상황에서 획득된 손의 위치 정보를 추적하도록 고안되었다. 제안한 알고리즘은 색깔정보와 모션 정보를 융합하여 손의 위치를 검출한다. 손의 피부색 정보는 신경망으로 다양한 피부색 그룹과 피부색이 아닌 그룹을 학습시켜 얻었다. 손의 모션 정보는 연속 영상에서 프레임간에 일정 수준 이상의 차이를 보이는 영역을 추출하였다. 피부색정보와 모션정보로 융합된 영상에서 블랍 분석을 하고 이를 민쉬프트로 추적하여 손을 추적하였다. 제안된 손 추출 및 추적 방법은 컴퓨터/로봇의 사용자가 인간과 마주하듯 컴퓨터/로봇의 서비스를 받을 수 있도록 하는데 주목적을 두고 있다.

  • PDF

When Robots Meet the Elderly: The Contexts of Interaction and the Role of Mediators (노인과 로봇은 어떻게 만나는가: 상호작용의 조건과 매개자의 역할)

  • Shin, Heesun;Jeon, Chihyung
    • Journal of Science and Technology Studies
    • /
    • v.18 no.2
    • /
    • pp.135-179
    • /
    • 2018
  • How do robots interact with the elderly? In this paper, we analyze the contexts of interaction between robots and the elderly and the role of mediators in initiating, facilitating, and maintaining the interaction. We do not attempt to evaluate the robot's performance or measure the impact of robots on the elderly. Instead, we focus on the circumstances and contexts within which a robot is situated as it interacts with the elderly. Our premise is that the success of human-robot interaction does not depend solely on the robot's technical capability, but also on the pre-arranged settings and local contingencies at the site of interaction. We select three television shows that feature robots for the elderly and one "dementia-prevention" robot in a regional healthcare center as our sites for observing robot-elderly interaction: "Grandma's Robot"(tvN), "Co-existence Experiment''(JTBC), "Future Diary"(MBC), and the Silbot class in Suwon. By analyzing verbal and non-verbal interactions between the elderly and the robots in these programs, we point out that in most cases the robots and the elderly do not meet one-to-one; the interaction is usually mediated by an actor who is not an old person. These mediators are not temporary or secondary components in the robot-elderly interaction; they play a key role in the relationship by arranging the first meeting, triggering initial interactions, and carefully observing unfolding interactions. At critical moments, the mediators prevent the interaction from falling apart by intervening verbally or physically. Based on our observation of the robot-elderly interaction, we argue that we can better understand and evaluate the human-robot interaction in general by paying attention to the existence and role of the mediators. We suggest that researchers in human-robot interaction should expand their analytical focus from one-to-one interactions between humans and robots to human-robot-human interactions in diverse real-world situations.

Human Touching Behavior Recognition based on Neural Network in the Touch Detector using Force Sensors (힘 센서를 이용한 접촉감지부에서 신경망기반 인간의 접촉행동 인식)

  • Ryu, Joung-Woo;Park, Cheon-Shu;Sohn, Joo-Chan
    • Journal of KIISE:Software and Applications
    • /
    • v.34 no.10
    • /
    • pp.910-917
    • /
    • 2007
  • Of the possible interactions between human and robot, touch is an important means of providing human beings with emotional relief. However, most previous studies have focused on interactions based on voice and images. In this paper. a method of recognizing human touching behaviors is proposed for developing a robot that can naturally interact with humans through touch. In this method, the recognition process is divided into pre-process and recognition Phases. In the Pre-Process Phase, recognizable characteristics are calculated from the data generated by the touch detector which was fabricated using force sensors. The force sensor used an FSR (force sensing register). The recognition phase classifies human touching behaviors using a multi-layer perceptron which is a neural network model. Experimental data was generated by six men employing three types of human touching behaviors including 'hitting', 'stroking' and 'tickling'. As the experimental result of a recognizer being generated for each user and being evaluated as cross-validation, the average recognition rate was 82.9% while the result of a single recognizer for all users showed a 74.5% average recognition rate.