• 제목/요약/키워드: facial action coding system

검색결과 22건 처리시간 0.025초

광고 속의 얼굴 표정에 따른 비교 연구 -FACS를 활용하여 (A Comparative Analysis on Facial Expression in Advertisements -By Utilising Facial Action Coding System(FACS))

  • 안경희
    • 한국콘텐츠학회논문지
    • /
    • 제19권3호
    • /
    • pp.61-71
    • /
    • 2019
  • 광고 속에서 비언어커뮤니케이션의 종류 중 얼굴 표정의 사용은 시간 제약의 문제를 상쇄시키며 소비자들에게 표현적이고 감동적인 매력의 수단으로 사용된다. 본 연구 목적은 TV 광고들 속에서 어떻게 얼굴 표정이 묘사되고 얼굴 표정을 통한 감정 전달이 이루어지는 지를 탐구하는 것이다. 연구 대상은 소비자들이 가장 감동적인 TV 광고로 뽑은 <박카스 음료>와 <동원 참치> 광고이다. 숨겨진 감정들에 대한 이론적 측면들을 기초로 두고 특정한 얼굴 근육의 움직임을 측정하도록 설계된 심리학과 해부학 기반인 얼굴 동작 코딩 시스템(Facial Action Coding System)을 연구 도구로 사용하여 TV광고 속의 얼굴 표정들이 내포한 의미들을 분석하였다. 분석된 의미의 결과를 통해서 얼굴 클로즈업을 통해 주인공의 감정 상태의 충돌과 극적인 갈등의 해소가 이루어진 광고가 소비자들의 마음을 더 움직인다는 유의미한 결과를 도출하였다.

제품 디자인 프로세스를 위한 표정 부호화 시스템(FACS) 적용성에 대한 연구 (A Study on the Applicability of Facial Action Coding System for Product Design Process)

  • 황차오;고정욱
    • 한국콘텐츠학회논문지
    • /
    • 제19권3호
    • /
    • pp.80-88
    • /
    • 2019
  • 사용자와 감성적인 소통(Emotional Communication)이 중요한 제품 디자인 영역에서 디자이너가 사용자 감성을 보다 명확하고 신속하게 파악하는 것은 제품 디자인 연구의 매우 핵심적인 활동이다. 이에 본 연구는 제품디자인과정에 감성측정의 활용가능성을 높이기 위한 방법으로서 행위적 감성 측정 방법인 표정 부호화 시스템(Facial Action Coding System, FACS)을 제품디자인 평가에 활용하였다. 표본으로 선정한 감성 제품의 Image Map을 활용하여 긍정적, 부정적, 중성 감성을 유발하는 제품 자극물 총 6개를 선정하여 20대 일반 제품 사용자를 실험 대상으로 FACS 실험을 진행하고 사용자 얼굴 표정을 통하여 자극물에 대한 감성상태를 분석하였다. 이러한 실험을 통하여 표정 부호화 시스템이 제품디자인에 적용 과정에서 "사용자 무의식적인 얼굴 표정을 기록할 수 있다" 등 장단점을 분석하였으며 "사용자 반응도 높은 제품 자극물을 선정해야 한다" 등 적용방안을 제시하였다. 본 연구는 향후 새로운 제품을 시장에 출시하기 전에 제품디자인 시안 단계에서 사전 사용자 감성 예측 방법으로 FACS를 활용성 검토에 도움을 줄 것으로 전망된다.

정서재활 바이오피드백을 위한 얼굴 영상 기반 정서인식 연구 (Study of Emotion Recognition based on Facial Image for Emotional Rehabilitation Biofeedback)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제16권10호
    • /
    • pp.957-962
    • /
    • 2010
  • If we want to recognize the human's emotion via the facial image, first of all, we need to extract the emotional features from the facial image by using a feature extraction algorithm. And we need to classify the emotional status by using pattern classification method. The AAM (Active Appearance Model) is a well-known method that can represent a non-rigid object, such as face, facial expression. The Bayesian Network is a probability based classifier that can represent the probabilistic relationships between a set of facial features. In this paper, our approach to facial feature extraction lies in the proposed feature extraction method based on combining AAM with FACS (Facial Action Coding System) for automatically modeling and extracting the facial emotional features. To recognize the facial emotion, we use the DBNs (Dynamic Bayesian Networks) for modeling and understanding the temporal phases of facial expressions in image sequences. The result of emotion recognition can be used to rehabilitate based on biofeedback for emotional disabled.

ASM-LK Optical Flow 기반 최적 얼굴정서 특징분석 기법 (Optimal Facial Emotion Feature Analysis Method based on ASM-LK Optical Flow)

  • 고광은;박승민;박준형;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제21권4호
    • /
    • pp.512-517
    • /
    • 2011
  • 얼굴영상에서 나타나는 정서특징을 분석하기 위하여 본 논문에서는 Active Shape Model (ASM)과 Lucas-Kanade (LK) optical flow 기법을 기반으로 하는 특징검출 및 분석방법을 제안한다. Facial Action Coding System에 근거하여 묘사된 정서적 특징을 고려하여, 특징이 분포하는 영역에 위치한 다수의 landmark로 shape 모델을 구성하고 모델에서 각 Landmark를 중심으로 하는 움직임 벡터 윈도우 내부의 픽셀에 대한 LK 기법을 통해 optical flow 벡터를 추출한다. 추출된 움직임 벡터의 방향성 조합에 근거하여 얼굴정서특징을 shape 모델로 표현할 수 있으며, 베이지안 분류기라는 확률 기반 추론기법을 기반으로 정서적 상태에 대한 추정할 수 있다. 또한, 정서특징분석과정의 연산 효율성과 정확성 향상을 도모하기 위하여 common spatial pattern (CSP) 분석기법을 적용하여 정서상태 별로 상관성이 높은 특징만으로 구성된 최적정서특징을 추출한다.

FACS 기반을 둔 3D 얼굴 모델링 (3D Face Modeling based on FACS (Facial Action Coding System))

  • 오두식;김유성;김재민;조성원;정선태
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.1015-1016
    • /
    • 2008
  • In this paper, the method which searchs a character of face and transforms it by FACS(Facial Action Coding System) for face modeling is suggested. FACS has a function to build an expression of face to AUs(Action Units) and make various face expressions. The system performs to find accurate Action Units of sample face and use setted AUs. Consequently it carries out the coefficient for transforming face model by 2D AUs matching.

  • PDF

정서 유발 맥락이 영아의 미소 얼굴 표정에 미치는 영향 (The Effects of Emotional Contexts on Infant Smiling)

  • 홍희영;이영
    • 아동학회지
    • /
    • 제24권6호
    • /
    • pp.15-31
    • /
    • 2003
  • This study examined the effects of emotion inducing contexts on types of infants smiling. Facial expressions of forty-five 11-to 15-month-old infants were videotaped in an experimental lab with positive and negative emotional contests. Infants' smiling was identified as the Duchenne smile or non-Duchenne smile based on FACS(Facial Action Coding System, Ekman & Friesen, 1978). Duration of smiling types was analyzed. Overall, infants showed more smiling in the positive than in the negative emotional context. Occurrence of Duchenne smiling was more likely in the positive than in the negative context and in the peek-a-boo than in the melody toy condition within the same positive context. Non-Duchenne smiling did not differ by context.

  • PDF

Emotional Expression of the Virtual Influencer "Luo Tianyi(洛天依)" in Digital'

  • Guangtao Song;Albert Young Choi
    • International Journal of Advanced Culture Technology
    • /
    • 제12권2호
    • /
    • pp.375-385
    • /
    • 2024
  • In the context of contemporary digital media, virtual influencers have become an increasingly important form of socialization and entertainment, in which emotional expression is a key factor in attracting viewers. In this study, we take Luo Tianyi, a Chinese virtual influencer, as an example to explore how emotions are expressed and perceived through facial expressions in different types of videos. Using Paul Ekman's Facial Action Coding System (FACS) and six basic emotion classifications, the study systematically analyzes Luo Tianyi's emotional expressions in three types of videos, namely Music show, Festivals and Brand Cooperation. During the study, Luo Tianyi's facial expressions and emotional expressions were analyzed through rigorous coding and categorization, as well as matching the context of the video content. The results show that Enjoyment is the most frequently expressed emotion by Luo Tianyi, reflecting the centrality of positive emotions in content creation. Meanwhile, the presence of other emotion types reveals the virtual influencer's efforts to create emotionally rich and authentic experiences. The frequency and variety of emotions expressed in different video genres indicate Luo Tianyi's diverse strategies for communicating and connecting with viewers in different contexts. The study provides an empirical basis for understanding and utilizing virtual influencers' emotional expressions, and offers valuable insights for digital media content creators to design emotional expression strategies. Overall, this study is valuable for understanding the complexity of virtual influencer emotional expression and its importance in digital media strategy.

동적 표정 구현이 가능한 얼굴 로봇 3D 시뮬레이터 구현 (Implementation of Facial Robot 3D Simulator For Dynamic Facial Expression)

  • 강병곤;강효석;김은태;박민용
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.1121-1122
    • /
    • 2008
  • By using FACS(Facial Action Coding System) and linear interpolation, a 3D facial robot simulator is developed in this paper. This simulator is based on real facial robot and synchronizes with it by unifying protocol. Using AUs(Action Unit) of each 5 basic expressions and linear interpolation makes more various dynamic facial expressions.

  • PDF

Prompt Tuning for Facial Action Unit Detection in the Wild

  • ;;김애라;김수형
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.732-734
    • /
    • 2023
  • Facial Action Units Detection (FAUs) problem focuses on identifying various detail units expressing on the human face, as defined by the Facial Action Coding System, which constitutes a fine-grained classification problem. This is a challenging task in computer vision. In this study, we propose a Prompt Tuning approach to address this problem, involving a 2-step training process. Our method demonstrates its effectiveness on the Affective in the Wild dataset, surpassing other existing methods in terms of both accuracy and efficiency.

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.