• Title/Summary/Keyword: 인간 인식

Search Result 1,915, Processing Time 0.027 seconds

지능형 로봇과 얼굴 인식 융합기술

  • Kee, Seok-Cheol
    • Review of KIISC
    • /
    • v.17 no.5
    • /
    • pp.25-31
    • /
    • 2007
  • IT기술과 지능을 로봇에 융합시킴으로써, 로봇이 스스로 사용자를 인식하여 사용자가 원하는 일을 하고 원하는 정보를 검색해 주는 인간 중심적 서비스를 제공하는 것이 지능형 로봇의 궁극적인 목표이다. 사용자가 원하는 서비스를 제공하기 위해서는 다양한 의사소통 채널을 통해 인간과 로봇, 두 개체간의 상호작용 및 의사소통 연결 고리를 형성하는 인간-로봇 상호작용(HRI: Human-Robot Interaction)기술 개발이 반드시 필요하다. HRI 기술에는 얼굴 인식, 음성 인식, 제스처 인식 및 감정 인식 등 로봇이 인간의 의사표시를 인식하기 위한 기술들이 있다. 본고에서는 지능형 로봇과 로봇의 시각 지능화의 가장 핵심적인 기능인 얼굴 인식의 융합 기술 동향에 대해서 응용 서비스 및 표준화 이슈를 중심으로 살펴보고자 한다.

A Study Context Aware Middle for Decision of Human Behavior Pattern (인간 행동패턴 결정을 위한 상황인식 미들웨어에 대한 연구)

  • 최순용;최종화;신동일;신동규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.538-540
    • /
    • 2004
  • 이 논문에서 제안된 인간행동패턴 결정을 위한 상황인식 미들웨어는 Intelligent Home환경에서 인간과 Home환경과의 지능적인 Agent로써의 역할을 담당한다. 우리는 제시된 논문에서 인간행동패턴 결정을 위한 상황인식 미들웨어의 아키텍처를 제안하고 상황인식 미들웨어 내에서 동작하는 인간행동패턴 학습 및 결정 프로세서에 대한 구조와 구현내용에 대한 설명을 한다. 인간행동패턴을 결정하기 위한 기본 컨텍스트들을 환경 컨텍스트와 생체 컨텍스트로 크게 두 그룹으로 분리하였고 각 그룹은 세 개의 컨텍스트를 포함하고 있다. 환경과 생체로 나뉘어진 총 6개의 컨텍스트들을 정의하고 그 구성에 대하여 설명한다. 또한 컨텍스트는 9단계로 정규화 되어 상황인식 미들웨어에서의 다음 단계인 인간행동패턴 학습 및 결정 프로세서로 정규화 된 값을 전달된다. 인간행동패턴 학습 및 결정 프로세서에서는 패턴인식에 대한 세부사항을 설명한다.

  • PDF

A Neural Network Approach to Recognition of Human Behaviors (인간행동 인식의 신경망적 접근)

  • 류중원;조성배
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.455-458
    • /
    • 2000
  • 인공 신경망은 체계적인 알고리즘으로 풀기 어려운 문제들을 해결하는데 사용되어오고 있다. 이는 인간의 뇌세포가 외부자극에 대해 반응하는 과정을 컴퓨터 시스템 상에서 구현한 것으로 새 인간과 컴퓨터의 상호작용을 연구하는데 흥미로운 접근방식이다. 본 논문에서는 신경망의 접근방법을 이용하여 인간행위 인식시스템을 구현하였다. 신경망을 이용해 구현된 컴퓨터 인식 시스템이 인간의 두 가지 정서 하에서 일어난 세가지 서로 다른 행동을 보고 행위자의 성별이나 강정상태를 얼마나 인식해낼 수 있는지 실험해 보았다. 특히, 성별 인식 실험에서는 신호탐지 이론에서 사용하는 인장도(discriminability)를 이용해 사람에 대한 이 시스템의 효율도를 계산하였다

  • PDF

Gesture Recognition for Natural Human-Robot Interaction (인간-로봇 상호작용을 위한 제스처 인식 기술)

  • Kim, K.K.;Kim, H.J.;Cho, S.H.;Lee, J.Y.
    • Electronics and Telecommunications Trends
    • /
    • v.20 no.2 s.92
    • /
    • pp.14-20
    • /
    • 2005
  • 인간과 로봇과의 자연스러운 상호작용을 위하여 시각을 기반으로 한 사용자 의도 및 행위 인식에 대한 연구가 활발히 진행되고 있다. 제스처 인식은 시각을 기반으로 한 인식 분야에서 핵심 기술 분야로 연구되어 왔으며 최근에는 로봇이 인간에게 자연스러운 서비스를 제공해 주거나 로봇의 동작을 제어하기 위해 연구되고 있는 분야이다. 본 고에서는 기존에 제어된 제스처 인식 기술과 최근 인간-로봇의 상호작용을 위한 제스처인식 기술에 대하여 알아본다.

3축 가속도 센서 기반 인간 행동 인식을 위한 기계학습 분석

  • Lee, Song-Mi;Jo, Hui-Ryeon;Yun, Sang-Min
    • Information and Communications Magazine
    • /
    • v.33 no.10
    • /
    • pp.65-70
    • /
    • 2016
  • 최근 스마트폰의 이용 사례가 증가함에 따라, 스마트폰에 내장되어 있는 다양한 센서를 이용하여 인간의 행동을 인식하기 위한 연구가 많은 각광을 받고 있다. 본고에서는 인간의 기본적인 행동 중에 앉기, 걷기, 달리기 등의 행동 특성을 스마트폰에 내장되어 있는 3축 가속도 센서를 통하여 분석하고 인간의 기본적 행동을 자동으로 인식하기 위한 방법에 대하여 비교 분석하는 것을 목적으로 한다. 구체적으로는 스마트폰에 내장되어 있는 3차원 가속도 센서로부터 추출된 데이터를 시간축에서 샘플링하여 인간의 행동을 인식하기 위한 기댓값 최대화 알고리즘, 랜덤 포레스트, 딥러닝 기반의 기계학습 방법을 비교하여 각 기계학습 알고리즘의 장단점을 분석한다.

소프트웨어 로봇을 위한 인간-로봇 상호작용

  • Gwak Geun-Chang;Ji Su-Yeong;Jo Yeong-Jo
    • The Magazine of the IEIE
    • /
    • v.33 no.3 s.262
    • /
    • pp.49-55
    • /
    • 2006
  • 인간과 로봇의 자연스러운 상호작용을 위하여 영상과 음성을 기반으로 한 인간-로봇 상호작용 (HRI: Human Robot Interaction) 기술들을 소개한다. URC개념의 서버/클라이언트 구조를 갖는 소프트웨어 로봇에 수행 가능한 얼굴 인식 및 검증, 준 생체정보(semi biometrics)를 이용한 사용자 인식, 제스처인식, 화자인식 및 검증, 대화체 음성인식 기술들에 대하여 살펴본다. 이러한 인간-로봇 상호작용 기술들은 초고속 인터넷과 같은 IT 인프라를 이용하는 URC(Ubiquitous Robotic Companion) 기반의 지능형 서비스 로봇을 위한 핵심기술로서 사용되어진다.

  • PDF

Human Touching Behavior Recognition based on Neural Network in the Touch Detector using Force Sensors (힘 센서를 이용한 접촉감지부에서 신경망기반 인간의 접촉행동 인식)

  • Ryu, Joung-Woo;Park, Cheon-Shu;Sohn, Joo-Chan
    • Journal of KIISE:Software and Applications
    • /
    • v.34 no.10
    • /
    • pp.910-917
    • /
    • 2007
  • Of the possible interactions between human and robot, touch is an important means of providing human beings with emotional relief. However, most previous studies have focused on interactions based on voice and images. In this paper. a method of recognizing human touching behaviors is proposed for developing a robot that can naturally interact with humans through touch. In this method, the recognition process is divided into pre-process and recognition Phases. In the Pre-Process Phase, recognizable characteristics are calculated from the data generated by the touch detector which was fabricated using force sensors. The force sensor used an FSR (force sensing register). The recognition phase classifies human touching behaviors using a multi-layer perceptron which is a neural network model. Experimental data was generated by six men employing three types of human touching behaviors including 'hitting', 'stroking' and 'tickling'. As the experimental result of a recognizer being generated for each user and being evaluated as cross-validation, the average recognition rate was 82.9% while the result of a single recognizer for all users showed a 74.5% average recognition rate.

A Study on Human Recognition Experiments with Handwritten Digit for Machine Recognition of Handwritten Digit (필기 숫자의 기계 인식을 위한 인간의 필기 숫자 인식 실험에 대한 고찰)

  • Yoon, Sung-Soo;Chung, Hyun-Sook;Yi, Kwang-Oh;Lee, Yill-Byeong;Lee, Sang-Ho
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.18 no.3
    • /
    • pp.373-380
    • /
    • 2008
  • So far there have been many researches on machine-based recognition of handwritten digit. But we have not yet attained the level of performance that can be satisfactory to men. The dissatisfaction with the performance of machine comes from not only the low accuracy of recognition but also the dissimilarity of the recognition results between man and machine. To reduce the difference of machine from man we first made an experiment with the human recognition of handwritten digits and then inquiry into the way of the human recognition that makes the results of men different from that of machine. We found out the attributes that play an important role in the human recognition process through the analysis of the experimental results like uni- and bi-directional confused pairs of digits, several ones unmixed up with another and the redundancy of mis-recognition, and proposed the approach direction to be able to improve the accuracy of the machine-based recognition, and furthermore the similarity in the recognition results of men and machine on the basis of the found facts above.

Fuzzy Inference-Based Human Emotion Recognition of Color Image (퍼지 추론을 기반으로 한 칼라 영상에서의 감성 인식)

  • 정근호;나인호;최연성;양해권;주영훈
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.04a
    • /
    • pp.528-531
    • /
    • 2004
  • 본 논문에서는 칼라 영상을 이용하여 인간의 감성을 인식할 수 있는 방법을 제안한다. 먼저 칼라 영상으로부터 피부색 추출방법을 이용하여 얼굴을 추출한다 그 다음, 추출된 얼굴 영상으로부터 인간 얼굴의 특징 점(눈썹, 눈, 코, 입)들을 추출하는 방법과 각 특징 점들 간의 구조적인 관계로부터 인간의 감성(기쁨, 놀람, 슬픔, 분노)을 인식하는 방법을 제안한다. 본 논문에서 제안한 방법은 퍼지 추론을 기반으로 하여 인간의 감성을 인식한다. 마지막으로, 제안된 방법은 실험을 통해 그 응용 가능성을 확인한다.

  • PDF

Comparison of Local and Global Features for Sparse Representation-based Human Action Recognition (Sparse Representation 기반의 인간행동인식에 대한 지역특징과 전역특징 비교)

  • Hwang, Jung-Hyon;Min, Hyun-seok;Ro, Yong Man
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.246-247
    • /
    • 2013
  • 인간행동의 자동인식 기술은 영상보안 및 인간-사물 상호작용 분야에 핵심적 기술이다. 그러나 실제 비디오 환경에서는 인간 행동의 다양성 및 잡음 등 많은 제한점들로 인해 효과적인 행동인식에 어려움이 있다. 최근 이러한 문제점을 해결하기 위하여 많은 영상 처리 및 인식 분야에서 연구되고 있는 sparse representation 기반의 방법들이 제시되고 있다. 이에 본 논문에서는 효과적으로 sparse representation을 행동인식에 적용하고, sparse representation 기반 인간행동인식을 위해 사용되는 지역특징 및 전역특징에 대하여 비교했다.

  • PDF