• 제목/요약/키워드: Facial emotion

검색결과 311건 처리시간 0.03초

노화에 대한 고정관념 위협이 노인의 공간 작업기억 및 정서인식에 미치는 영향 (Effect of Stereotype Threat on Spatial Working Memory and Emotion Recognition in Korean elderly)

  • 이경은;이완정;최기홍;김현택;최준식
    • 한국노년학
    • /
    • 제36권4호
    • /
    • pp.1109-1124
    • /
    • 2016
  • 본 연구에서는 고정관념 위협이 노인의 공간 기억 및 정서인식기능에 미치는 영향을 확인하고, 개인이 지니고 있는 노화에 대한 인식에 따라 고정관념 위협의 효과가 다르게 나타나는지 검증해 보고자 하였다. 이를 위해 자발적으로 연구 참여 의사를 밝힌 60세 이상 노인 17명(남=7)을 대상으로 연구를 진행하였으며, 첫 번째 방문 시 K-WMS-IV와 MMSE를 포함한 기본 인지기능 검사를 실시하고, 자신의 노화에 대한 인식, 노화 불안, 노화에 대한 태도, 연령 정체성 척도에 응답하도록 하였다. 두 번째 방문 시, 실험군의 경우 노화가 인지기능을 저하시킨다는 스크립트를 읽도록 하여 고정관념 위협에 노출시켰으며, 대조군의 경우 중립적인 스크립트를 읽도록 하였다. 고정관념위협을 조작한 이후 공간 작업기억 과제 (콜시 블록 태핑 과제)와 정서 인식 과제 (얼굴표정 정서인식 과제)를 수행하도록 하고, 수행의 정확도를 관찰하였다. 연구 결과, 고정관념 위협에 노출된 노인 군이 그렇지 않은 노인 군에 비해 정서인식 과제에서 유의하게 저조한 수행 정확도 (p<.05)를 보였다. 또한 자신의 노화에 대한 인식과 고정관념 위협 사이에 상호작용 효과가 확인되어(p<.05), 자신의 노화에 대한 인식이 긍정적인 노인들은 고정관념 위협에 노출되더라도 정서인식 과제와 어려운 공간 작업기억 과제에서 대조군과 유사한 수행 정확도를 보인 반면, 자신의 노화에 대한 인식이 부정적인 노인들은 고정관념 위협에 노출되었을 때, 매우 저조한 수행 정확도를 나타내는 양상을 보였다. 따라서 본 연구에서는 고정관념 위협이 노인의 정서인식 기능에 부정적 영향을 미치는 것을 검증하였으며, 자신의 노화에 대한 긍정적 인식이 고정관념 위협으로 인한 인지기능 저하의 보호 요인으로 작용한다는 것을 확인하였다.

표정 분석 프레임워크 (Facial Expression Analysis Framework)

  • 지은미
    • 한국컴퓨터산업학회논문지
    • /
    • 제8권3호
    • /
    • pp.187-196
    • /
    • 2007
  • 사람들은 의식적이든 무의식적이든 표정을 통해 감정을 표현하며 살아간다. 이러한 표정을 인식하려는 시도가 몇 몇 심리학자에 의해 시작되어 과거 10여년동안 컴퓨터 과학자들에게도 관심분야가 되었다. 표정인식은 인간과 컴퓨터의 인터페이스를 기반으로 하는 여러 분야에 응용할 수있는 미래가치가 높은 분야이다. 그러나 많은 연구에도 불구하고 조명변화, 해상도, 고차원의 정보 처리 등의 어려움으로 실용화된 시스템을 찾아보기 힘들다. 본 논문에서는 표정 분석을 위한 기본 프레임워크를 기술하고 각 단계의 필요성과 국외의 연구동향을 기술하였으며 국내의 표정에 관한 연구사례를 분석하였다. 이를 통해 국내에서 표정분석에 기여하고자 하는 연구자들에게 도움이 되기를 기대한다.

  • PDF

얼굴 랜드마크 거리 특징을 이용한 표정 분류에 대한 연구 (Study for Classification of Facial Expression using Distance Features of Facial Landmarks)

  • 배진희;왕보현;임준식
    • 전기전자학회논문지
    • /
    • 제25권4호
    • /
    • pp.613-618
    • /
    • 2021
  • 표정 인식은 다양한 분야에서 지속적인 연구의 주제로서 자리 잡아 왔다. 본 논문에서는 얼굴 이미지 랜드마크 간의 거리를 계산하여 추출된 특징을 사용해 각 랜드마크들의 관계를 분석하고 5가지의 표정을 분류한다. 다수의 관측자들에 의해 수행된 라벨링 작업을 기반으로 데이터와 라벨 신뢰도를 높였다. 또한 원본 데이터에서 얼굴을 인식하고 랜드마크 좌표를 추출해 특징으로 사용하였으며 유전 알고리즘을 이용해 상대적으로 분류에 더 도움이 되는 특징을 선택하였다. 본 논문에서 제안한 방법을 이용하여 표정 인식 분류를 수행하였으며 제안된 방법을 이용하였을 때가 CNN을 이용하여 분류를 수행하였을 때 보다 성능이 향상됨을 볼 수 있었다.

Understanding the Importance of Presenting Facial Expressions of an Avatar in Virtual Reality

  • Kim, Kyulee;Joh, Hwayeon;Kim, Yeojin;Park, Sohyeon;Oh, Uran
    • International journal of advanced smart convergence
    • /
    • 제11권4호
    • /
    • pp.120-128
    • /
    • 2022
  • While online social interactions have been more prevalent with the increased popularity of Metaverse platforms, little has been studied the effects of facial expressions in virtual reality (VR), which is known to play a key role in social contexts. To understand the importance of presenting facial expressions of a virtual avatar under different contexts, we conducted a user study with 24 participants where they were asked to have a conversation and play a charades game with an avatar with and without facial expressions. The results show that participants tend to gaze at the face region for the majority of the time when having a conversation or trying to guess emotion-related keywords when playing charades regardless of the presence of facial expressions. Yet, we confirmed that participants prefer to see facial expressions in virtual reality as well as in real-world scenarios as it helps them to better understand the contexts and to have more immersive and focused experiences.

효과적인 로봇 행동 생성을 위한 선형의 정서-표정 공간 내 감정 경계의 결정 -비선형의 제스처 동기화를 위한 정서, 표정 공간의 영역 결정 (The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation)

  • 조수훈;이희승;박정우;김민규;정영진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.540-546
    • /
    • 2008
  • 미래에는 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 사람간의 교류에서 메세지의 93%가 행동 표현에 있으며, 바디 랭귀지는 감정의 양을 표현하므로 행동 표현은 중요한 감정 표현 수단이다. 최근의 로봇들은 얼굴, 제스처, LED, 소리 등의 복합적 방법을 이용하여 사람과 교류하고 있지만 포즈는 위치와 방위, 얼굴이나 제스처는 속도, 말이나 색 풍은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어렵다. 한편 작은 세기의 감정에서, 얼굴은 쉽게 표현이 가능하지만 제스처는 표현이 힘들다. 또한 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 본 논문에서는 정서 공간에서 감정의 경계를 어떻게 정의할 것이며, 복합적 표현 방법을 시스템적으로 어떻게 동기화할 수 있을지를 제안한다.

  • PDF

감성 인식 컴퓨팅 기술을 적용한 이러닝 상호작용 기술 연구 (Enhancing e-Learning Interactivity vla Emotion Recognition Computing Technology)

  • 박정현;김인옥;정상목;송기상;김종백
    • 컴퓨터교육학회논문지
    • /
    • 제11권2호
    • /
    • pp.89-98
    • /
    • 2008
  • 학습자와 이러닝 시스템 사이의 상호작용은 이러닝 시스템의 효율성을 결정짓는 중요한 요소이다. 기존의 웹기반 콘텐츠의 경우에도 다양한 상호작용 기능이 채용되고 있지만 학습자들은 인간-컴퓨터 상호작용 기술의 한계에 따른 실시간 인간 교사로부터 받는 것과 같은 피드백을 경험하는 것은 한계가 있다. 본 논문에서는 학습자의 얼굴 표정을 이용하여 감정을 인식하는 시스템을 개발하고 튜터링 시스템에 통합시켰다. 관찰되는 학습자의 감정 변화에 대하여 인간 교사가 하듯이 적합한 피드백 메시지를 제공하여 이러닝 환경에서 나타날 수 있는 학습자의 고립감을 제거할 수 있도록 하였다. 본 체제를 실제 수업에 도입한 결과 학업 성취도의 개선과 이러닝 학습의 흥미도 개선이 유의미하게 이루어질 수 있음을 보였다.

  • PDF

FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현 (On the Implementation of a Facial Animation Using the Emotional Expression Techniques)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 본 논문은 여러 가지 감정들 중에서 4가지 감정의 범주 즉, 중성, 두려움, 싫증 및 놀람을 포함한 음성과 감성이 결합되어진 얼굴의 표정을 좀 더 정확하고 자연스러운 3차원 모델로 만들 수 있는 FAES(a Facial Animation with Emotion and Speech) 시스템을 구축하는데 그 주된 목적이 있다. 이를 위해서 먼저 사용할 훈련자료를 추출하고 난후에 감성을 처리한 얼굴 애니메이션에서는 SVM(Support vector machine)[11]을 사용하여 4개의 감정을 수반한 얼굴 표정을 데이터베이스로 구축한다. 마지막으로 얼굴 표정에 감정과 음성이 표현되는 시스템을 개발하는 것이다. 얼굴 표정을 위해서 본 논문에서는 한국인 청년을 대상으로 이루어졌다. 이런 시스템을 통한 결과가 기존에 제시된 방법에 비해서 감정의 영역을 확대시킴은 물론이고 감정인지의 정확도가 약 7%, 어휘의 연속 음성인지가 약 5%의 향상을 시켰다.

  • PDF

대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스 (Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation)

  • 백지영;김세라;이석필
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.71-77
    • /
    • 2022
  • 본 연구에서는 음성 합성 모델을 감정에 따라 음성을 합성하는 모델로 확장하고 감정에 따른 얼굴 표정을 생성하기 위한 데이터 베이스를 수집한다. 데이터베이스는 남성과 여성의 데이터가 구분되며 감정이 담긴 발화와 얼굴 표정으로 구성되어 있다. 성별이 다른 2명의 전문 연기자가 한국어로 문장을 발음한다. 각 문장은 anger, happiness, neutrality, sadness의 4가지 감정으로 구분된다. 각 연기자들은 한 가지의 감정 당 약 3300개의 문장을 연기한다. 이를 촬영하여 수집한 전체 26468개의 문장은 중복되지 않으며 해당하는 감정과 유사한 내용을 담고 있다. 양질의 데이터베이스를 구축하는 것이 향후 연구의 성능에 중요한 역할을 하므로 데이터베이스를 감정의 범주, 강도, 진정성의 3가지 항목에 대해 평가한다. 데이터의 종류에 따른 정확도를 알아보기 위해 구축된 데이터베이스를 음성-영상 데이터, 음성 데이터, 영상 데이터로 나누어 평가를 진행하고 비교한다.

2D 코믹 모델을 이용한 3D 얼굴 표정 에디터 (A 3D facial Emotion Editor Using a 2D Comic Model)

  • 이용후;김상운;청목유직
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 하계종합학술대회 논문집(4)
    • /
    • pp.226-229
    • /
    • 2000
  • A 2D comic model, a comic-style line drawing model having only eyebrows, eyes, nose and mouth, is much easier to generate facial expressions with small number of points than that of 3D model. In this paper we propose a 3D emotional editor using a 2D comic model, where emotional expressions are represented by using action units(AU) of FACS. Experiments show a possibility that the proposed method could be used efficiently for intelligent sign-language communications between avatars of different languages in the Internet cyberspace.

  • PDF

자연스러운 표정 합성을 위한 3차원 얼굴 모델링 및 합성 시스템 (3D Facial Modeling and Synthesis System for Realistic Facial Expression)

  • 심연숙;김선욱;한재현;변혜란;정창섭
    • 인지과학
    • /
    • 제11권2호
    • /
    • pp.1-10
    • /
    • 2000
  • 최근 사용자에게 친근감있는 인터페이스를 제공하기 위해 자연스러운 얼굴 애니메이션에 대한 연구가 활발히 진행 중이다. 얼굴은 인간의 신체부위 중 가장 쉽게 개개인을 구분할 수 있고, 감정과 정서 등의 내적 상태를 명백하게 이해할 수 있도록 해주는 중요한 의사소통의 수단으로 여겨지고 있다. 이러한 얼굴은 이용하여 인간과 컴퓨터간의 의사 전달에 있어서 효율적으로 인간의 감정을 인식하고 전달하여 대화할 수 있도록 하기 위해서 컴퓨터상의 얼굴은 인간과 유사하게 대화할 수 있고, 감정을 표현할 수 있도록 친숙하고 현실감이 있어야 한다. 본 논문에서는 자연스러운 얼굴의 합성을 위한 얼굴 모델링 및 애니메이션 방법을 제안하였다. 특정한 사람을 모델로 한 얼굴 애니메이션을 위하여 우선 3차원 메쉬로 구성된 일반 모델(generic model)을 특성 사람에게 정합하여 특정인의 3차원 얼굴 모델을 얻을 수 있다. 본 논문에서는 기존 연구들과 다르게 표준 한국인 얼굴을 이용한 일반 모델을 생성하여, 임의의 얼굴에 대하여 좀 더 정확하고 자연스러운 3차원 모델이 이루어질 수 있도록 하였다. 그리고 얼굴 표정합성을 위하여, 실제 얼굴의 근육 및 피부 조직 등 해부학적 구조에 기반한 근육 기반 모델 방법을 사용하여 현실감 있고 자연스러운 얼굴 애니메이션이 이루어질 수 있도록 하였다. 이러한 얼굴 모델링 및 합성 기술은 화상회의, 가상현실, 교육, 영화 등 여러 분야에서 활용될 수 있다.

  • PDF