• 제목/요약/키워드: facial gestures

검색결과 47건 처리시간 0.023초

Facial Actions 과 애니메이션 원리에 기반한 로봇의 얼굴 제스처 생성 (Generation of Robot Facial Gestures based on Facial Actions and Animation Principles)

  • 박정우;김우현;이원형;이희승;정명진
    • 제어로봇시스템학회논문지
    • /
    • 제20권5호
    • /
    • pp.495-502
    • /
    • 2014
  • This paper proposes a method to generate diverse robot facial expressions and facial gestures in order to help long-term HRI. First, nine basic dynamics for diverse robot facial expressions are determined based on the dynamics of human facial expressions and principles of animation for even identical emotions. In the second stage, facial actions are added to express facial gestures such as sniffling or wailing loudly corresponding to sadness, laughing aloud or smiling corresponding to happiness, etc. To evaluate the effectiveness of our approach, we compared the facial expressions of the developed robot when the proposed method is used or not. The results of the survey showed that the proposed method can help robots generate more realistic facial expressions.

얼굴의 포즈 상태와 오토마타 기법을 이용한 헤드 제스처 인식 (Head Gesture Recognition using Facial Pose States and Automata Technique)

  • 오승택;전병환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권12호
    • /
    • pp.947-954
    • /
    • 2001
  • 본 논문에서는 인식된 얼굴의 포즈 상태 열에 오토마타 기법을 적용하여 다양한 헤드 제스처 를 인식하는 방법을 제안한다. 얼굴 영역의 추출에는 Yl7외 I성분인 최적의 얼굴색 정보와 적응적인 차영상 정보를 이용하며. 눈 영역 추출에는 소벨 연산자와 투영 기법. 그리고 눈의 기하학적 위치 정보를 이용 한다 얼굴의 상태 인식에는 계층적인 특징분석 방법을 사용하며, 인식된 얼굴 상태 열에 오토마타 기법을 적용하여 13가지 제스처; 준비, 상측, 하측, 좌측, 우측, 전진, 후퇴, 좌 윙크, 우 윙크, 좌 더블 윙크 우 더블 윙크, 긍정, 부정제스처를 인식한다. 총 8명으로부터 1,488 프레임의 영상을 취득하여 실험한 결과, 99.3%의 얼굴 영역 추출률 95.3%, 의 눈 영역 추출률, 94.1% 의 얼굴 상태 인식률. 그리고 93.3%의 헤드제 스처 인식률을 얻었다

  • PDF

메타버스 음악 공연장에서 관객 캐릭터 디자인 제안 연구 (A Study on the Design Proposal of Audience Character in Metaverse Music Performance Hall)

  • 송찬;김정이
    • 문화기술의 융합
    • /
    • 제10권5호
    • /
    • pp.659-666
    • /
    • 2024
  • 본 연구는 메타버스에서 음악 공연을 즐기는 관객들 간의 상호작용성을 높이기 위한 관객 캐릭터 디자인을 제안하였다. 연구 방법으로는 국내외 공연 영상을 조사하여 각각 장르와 규모에 따라 분류하고, 상호작용에 요구되는 표정, 제스처, 도구를 분석하였다. 메타버스 공연 관객 캐릭터의 표정은 선행 연구에서 제시된 9가지 표정에 환호와 감상의 표정을 추가하였다. 제스처는 사례 공연의 동영상을 검토하여 7가지 제스처로 정리하였고, 관객들의 상호작용 특성을 잘 반영할 수 있는 새로운 제스처를 추가하였다. 도구는 조사한 공연 영상에서 발견된 다양한 도구들을 타입별로 분류하여 정리하고, 이를 적절히 디자인하여 제안하였다. 그리고 캐릭터의 신체 비율과 형태를 적절하게 조정하여 관객들이 더 자연스럽게 상호작용을 할 수 있도록 하였다. 본 연구 결과는 메타버스에서의 음악 공연을 위한 캐릭터 디자인에 대한 기초적인 가이드를 제시하고, 이를 통해 관객들 간의 상호작용을 증진시키는데 기여할 수 있을 것으로 기대된다.

아바타 통신에서의 얼굴 표정의 생성 방법 (A Generation Methodology of Facial Expressions for Avatar Communications)

  • 김진용;유재휘
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.55-64
    • /
    • 2005
  • 사이버 공간 내에서 텍스트나 영상 이외에 보조적인 통신 수단으로써, 아바타 통신을 이용할 수 있다. 실시간 아바타 영상 통신을 위하여, 전체 영상이나 압축 영상을 전송하는 대신에 아바타의 애니메이션 파라미터(팔의 동작 및 제스처를 위한 각도 또는 얼굴 표정을 위한 파라미터 등)만을 전송하는 지적 통신방식을 이용하기도 한다. 본 논문에서는 팔, 다리 등의 파라메타 등의 몸의 동적 움직임을 보조할 수 있는 수단으로써, 송신자의 감정을 표현할 수 있는 아바타의 얼굴 표정 생성에 대하여 제안한다. 얼굴 표정은 AU(Action Unit)에 의하여 표현할 수 있으며, 여기에서는 모양과 구조가 다른 아바타 모델에서 표정을 생성하기 위한 AU를 찾아내는 방법을 제안한다. 그리고, 감정 표현의 극대화를 위하여 얼굴 표현의 효율을 위하여, 눈썹, 눈, 코, 입에 대한 코믹 스타일을 가지는 아바타 모델을 제안한다. 또한, 얼굴 표정 합성을 위한 파라메타들도 제시하도록 한다.

  • PDF

감정 표현이 가능한 실시간 반응형 그림자 아바타 (A Real-time Interactive Shadow Avatar with Facial Emotions)

  • 임양미;이재원;홍의석
    • 한국멀티미디어학회논문지
    • /
    • 제10권4호
    • /
    • pp.506-515
    • /
    • 2007
  • 본 논문에서는 사용자의 동작에 대한 반응으로 표정을 변화하여 감정을 표현할 수 있는 실시간 반응형 그림자 아바타인 RISA(Real-time Interactive Shadow Avatar)를 제안한다. 아바타 형태는 사용자의 실사로부터 실시간으로 추출한 가상의 그림자를 사용하며, 손동작의 유형에 따라 변화하는 표정 애니메이션이 그림자의 얼굴 위치에 겹쳐지도록 하였다. 가상 그림자의 추출을 위해서는 배경 차분화 기법을 사용하며, 머리위치 및 손동작의 추적 및 유형 탐지를-위해-단순화된 영역 단위 추적 기법을 사용하였다. 또한 표정의 자연스러운 변화를 표현하기 위해 표정 애니메이션은 기존의 동적 이모티콘보다 많은 수의 애니메이션 프레임들을 사용하는 변형된 모핑 기법을 적용하였다. RISA는 인터페이스 미디어 아트 분야에 직접 응용될 수 있을 것이며, RISA에 적용된 탐지 기법은 향후 입력 장치의 간결성이 요구되는 DMB나 카메라폰 등을 위한 대체 인터페이스에도 활용될 수 있을 것이다.

  • PDF

MediaPipe Face Mesh를 이용한 얼굴 제스처 기반의 사용자 인터페이스의 성능 개선 (Performance Improvement of Facial Gesture-based User Interface Using MediaPipe Face Mesh)

  • 목진왕;곽노윤
    • 사물인터넷융복합논문지
    • /
    • 제9권6호
    • /
    • pp.125-134
    • /
    • 2023
  • 본 논문은 MediaPipe Face Mesh 모델을 이용해 일련의 프레임 시퀀스에서 얼굴 제스처를 인식해 해당 사용자 이벤트를 처리하는 얼굴 제스처 기반의 사용자 인터페이스 선행 연구의 성능 개선 방안을 제안함에 그 목적이 있다. 선행 연구는 MediaPipe Face Mesh 모델에서 선택한 7개의 랜드마크의 3차원 좌표들로부터 얼굴 제스처를 인식해 해당 사용자 이벤트를 발생시키고 이에 대응하는 명령을 수행하는 것이 특징이다. 제안된 방법은 그 과정에서 커서 위치들에 적응형 이동 평균 처리를 적용해 미세 떨림을 완화함으로써 커서 안정화를 도모하고, 양안 동시 개폐 시에 양안의 일시적 개폐 불일치를 차단해 그 성능을 개선하였다. 제안된 얼굴 제스처 인터페이스의 사용성 평가 결과, 얼굴 제스처의 평균 인식률이 선행 연구에서 95.8%였던 것에 비해 98.7%로 상향되는 것이 확인되었다.

지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Generation Method of Comic Facial Expressions for Intelligent Avatar Communications)

  • 이윤후;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.227-230
    • /
    • 2000
  • The sign-language can be used as an auxiliary communication means between avatars of different languages in cyberspace. At that time, an intelligent communication method can also be utilized to achieve real-time communication, where intelligently coded data (joint angles for arm gestures and action units for facial emotions) are transmitted instead of real pictures. In this paper, a method of generating the facial gesture CG animation on different avatar models is provided. At first, to edit emotional expressions efficiently, a comic-style facial model having only eyebrows, eyes, nose, and mouth is employed. Then generation of facial emotion animation with the parameters is also investigated. Experimental results show a possibility that the method could be used for the intelligent avatar communications between Korean and Japanese.

  • PDF

감정 경계를 이용한 로봇의 생동감 있는 얼굴 표정 구현 (Life-like Facial Expression of Mascot-Type Robot Based on Emotional Boundaries)

  • 박정우;김우현;이원형;정명진
    • 로봇학회논문지
    • /
    • 제4권4호
    • /
    • pp.281-288
    • /
    • 2009
  • Nowadays, many robots have evolved to imitate human social skills such that sociable interaction with humans is possible. Socially interactive robots require abilities different from that of conventional robots. For instance, human-robot interactions are accompanied by emotion similar to human-human interactions. Robot emotional expression is thus very important for humans. This is particularly true for facial expressions, which play an important role in communication amongst other non-verbal forms. In this paper, we introduce a method of creating lifelike facial expressions in robots using variation of affect values which consist of the robot's emotions based on emotional boundaries. The proposed method was examined by experiments of two facial robot simulators.

  • PDF

얼굴 인식을 통한 동적 감정 분류 (Dynamic Emotion Classification through Facial Recognition)

  • 한우리;이용환;박제호;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제12권3호
    • /
    • pp.53-57
    • /
    • 2013
  • Human emotions are expressed in various ways. It can be expressed through language, facial expression and gestures. In particular, the facial expression contains many information about human emotion. These vague human emotion appear not in single emotion, but in combination of various emotion. This paper proposes a emotional expression algorithm using Active Appearance Model(AAM) and Fuzz k- Nearest Neighbor which give facial expression in similar with vague human emotion. Applying Mahalanobis distance on the center class, determine inclusion level between center class and each class. Also following inclusion level, appear intensity of emotion. Our emotion recognition system can recognize a complex emotion using Fuzzy k-NN classifier.

동작 인식을 통한 인터랙티브 애니메이션 (Interactive Animation by Action Recognition)

  • 황지연;임양미;박지완;장성갑
    • 한국콘텐츠학회논문지
    • /
    • 제6권12호
    • /
    • pp.269-277
    • /
    • 2006
  • 본 연구는 인간의 과장적 제스처 중, 팔에 대한 키 프레임을 추출하여 팔 동작(제스처)과 만화적 감정 표현 애니메이션과의 매칭을 위한 인터렉티브 시스템 구현을 목적으로 한다. 실시간 애니메이션 구현을 위하여 필요한 요소는 표정 변화에 따른 수많은 프레임 제작이다. 따라서, 애니메이션 제작에 따르는 시간 을 최소화하기 위해 3D 어플리케이션을 이용한 얼굴 감정 표현의 변형과정을 소개한다. 두 번째는 3D 어플리케이션에서 만들어진 많은 프레임들을 동작과 매칭하는 방법을 소개한다. 팔의 동작 변화에 따른 과장된 표정의 이미지 시퀀스를 매칭 시킴으로서 관객의 동작이 작품의 시동점이 되어 기존의 초상화가 과장된 움직임을 가칠 수 있게 함으로서 직접적으로 초상화와 의사소통을 하는듯한 느낌을 갖도록 했다.

  • PDF