• 제목/요약/키워드: Facial emotion

검색결과 312건 처리시간 0.03초

사용자 행동 자세를 이용한 시각계 기반의 감정 인식 연구 (A Study on Visual Perception based Emotion Recognition using Body-Activity Posture)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제18B권5호
    • /
    • pp.305-314
    • /
    • 2011
  • 사람의 의도를 인지하기 위해 감정을 시각적으로 인식하는 연구는 전통적으로 감정을 드러내는 얼굴 표정을 인식하는 데 집중해 왔다. 최근에는 감정을 드러내는 신체 언어 즉 신체 행동과 자세를 통해 감정을 나타내는 방법에서 감정 인식의 새로운 가능성을 찾고 있다. 본 연구는 신경생리학의 시각계 처리 방법을 적용한 신경모델을 구축하여 행동에서 기본 감정 의도를 인식하는 방법을 제안한다. 이를 위해 시각 피질의 정보 처리 모델에 따라 생물학적 체계의 신경모델 검출기를 구축하여 신체 행동의 정적 자세에서 6가지 주요 기본 감정을 판별한다. 파라미터 변화에 강건한 제안 모델의 성능은 신체행동 자세 집합을 대상으로 사람 관측자와의 평가 결과를 비교 평가하여 가능성을 제시한다.

비전 방식을 이용한 감정인식 로봇 개발 (Development of an Emotion Recognition Robot using a Vision Method)

  • 신영근;박상성;김정년;서광규;장동식
    • 산업공학
    • /
    • 제19권3호
    • /
    • pp.174-180
    • /
    • 2006
  • This paper deals with the robot system of recognizing human's expression from a detected human's face and then showing human's emotion. A face detection method is as follows. First, change RGB color space to CIElab color space. Second, extract skin candidate territory. Third, detect a face through facial geometrical interrelation by face filter. Then, the position of eyes, a nose and a mouth which are used as the preliminary data of expression, he uses eyebrows, eyes and a mouth. In this paper, the change of eyebrows and are sent to a robot through serial communication. Then the robot operates a motor that is installed and shows human's expression. Experimental results on 10 Persons show 78.15% accuracy.

모바일 환경에서 감성을 기반으로 한 영상 합성 기법 연구 및 개발 (Research and Development of Image Synthesis Model Based on Emotion for the Mobile Environment)

  • 심승민;이지연;윤용익
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권11호
    • /
    • pp.51-58
    • /
    • 2013
  • 최근 스마트폰 카메라의 성능은 디지털 카메라 못지않게 발전하고 있다. 이에 따라 점점 더 많은 사람들이 사진촬영을 하게 되고, 사진 관련 어플리케이션에 대한 관심은 꾸준히 증가하고 있다. 하지만 현재 나와 있는 사진 합성 프로그램은 여러 장의 사진을 배치하는 방법, 기존 이미지를 플러그인 이미지에 포개는 방법 등으로 단순한 합성 프로그램에 머물러 있는 실정이다. 본 논문에서 제안하는 모델은 얼굴 표정에서 추출한 감정을 기반으로 이에 맞는 배경을 합성하고 효과 필터를 적용하여 기존 사진 합성 프로그램보다 다양한 분야에서 활용할 수 있는 확장성을 가진 기법을 제시하였다.

USN 컴퓨팅에서 효율적인 감성 추론 연구 (An Efficient Study of Emotion Inference in USN Computing)

  • 양동일;김영규;정연만
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권1호
    • /
    • pp.127-134
    • /
    • 2009
  • 최근 선진국 뿐 아니라 우리나라에서는 유비쿼터스 컴퓨팅 모델에 대해 많은 연구를 하고 있다. 유비쿼터스 컴퓨팅이란 언제 어디서나 사용하는 컴퓨팅 환경을 의미하는 말로, 다양한 종류의 컴퓨터가 사람, 사물, 환경 속에 내재되어 있고, 이들이 서로 연결되어 필요한 곳이라면 언제 어디서나 컴퓨팅을 할 수 있는 환경을 말한다. 본 연구에서는 사용자의 감성을 인식하기 위해서 얼굴 표정, 온도, 습도, 날씨, 조명등을 사용하여 온톨로지를 구축하였다. 온톨로지를 구축하기 위하여 OWL 언어를 사용하였고, 감성추론 엔진은 Jena(예나)를 사용한다. 본 연구에서 제시한 상황인식 서비스인프라(Context-Awareness Service Infra)의 구조는 기능에 따라 여러 개의 모듈로 나뉜다.

감정 자세 인식을 위한 자세특징과 감정예측 모델 (Posture features and emotion predictive models for affective postures recognition)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.83-94
    • /
    • 2011
  • 감정 컴퓨팅의 대표적 연구 주제는 기계가 사람의 감정을 인식하여 이에 적절히 대응하는 것이다. 감정 인식 연구에서는 얼굴과 목소리 단서를 이용하여 감정을 포착하는데 집중했으며 최근에 와서 행동자세를 주요 수단으로 이용하고 있다. 본 연구의 목적은 감정 표현에서 중요한 역할을 담당하는 자세 특징을 포착하고 확인하여 감정을 판별하는 것이다. 이를 위해 먼저 자세포착시스템으로 다양한 감정 자세를 수집하여 감정별 특징을 공간적 특징으로 설명한다. 그리고 동작을 취하는 행위자가 의도하는 감정과 관찰자가 인지하는 감정 간에 통계적으로 의미 있는 상관관계가 있음을 표준통계기술을 통해 확인한다. 6가지 주요 감정을 판별하기 위해 판별 분석법을 이용하여 감정 자세 예측 모델을 구축하고 자세 특징을 측정한다. 제안 특징과 모델의 평가는 행위자-관찰자 감정 자세 집단의 상관관계를 이용하여 수행한다. 정량적 실험 결과는 제안된 자세 특징으로 감정을 잘 판별하며 감정 예측 모델이 잘 수행됨을 보여준다.

얼굴 인식 기반 표정 및 얼굴형 분류 스마트 미러 (Smart Mirror for Based on Facial Recognition Emotion and Face Shape Classification)

  • 성연우;전흥석
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.55-58
    • /
    • 2023
  • 본 논문에서는 스마트 미러 사용자의 얼굴 인식, 표정 인식, 얼굴형 인식을 활용하여 감정에 적절한 멘트와 화장법을 제공하는 시스템의 개발 내용에 관해 기술한다. 이 시스템을 사용함으로써 사람들은 자신의 감정을 정확하게 인지할 뿐만 아니라 위로와 공감을 받을 수 있으며, 자신의 스타일에 적절한 화장법을 추천받을 수 있다. 스마트 미러를 통해, 사용자는 자기 이해도가 늘어나게 되어 스스로에게 더욱 집중할 수 있고 화장법을 찾는 시간이나 화장에 실패할 가능성이 줄어들어 시간과 비용을 절약할 수 있게 될 것이다.

  • PDF

자발적 웃음과 인위적 웃음 간의 구분: 사람 대 컴퓨터 (Discrimination between spontaneous and posed smile: Humans versus computers)

  • 엄진섭;오형석;박미숙;손진훈
    • 감성과학
    • /
    • 제16권1호
    • /
    • pp.95-106
    • /
    • 2013
  • 본 연구에서는 자발적인 웃음과 인위적인 웃음을 변별하는 데 있어서 일반 사람들의 정확도와 컴퓨터를 이용한 분류 알고리즘의 정확도를 비교하였다. 실험참가자들은 단일 영상 판단 과제와 쌍비교 판단과제를 수행하였다. 단일 영상판단 과제는 웃음 영상을 한 장씩 제시하면서 이 영상의 웃음이 자발적인 것인지 인위적인 것인지를 판단하는 것이었으며, 쌍비교 판단과제는 동일한 사람에게서 얻은 두 종류의 웃음 영상을 동시에 제시하면서 자발적인 웃음 영상이 어떤 것인지 판단하는 것이었다. 분류 알고리즘의 정확도를 산출하기 위하여 웃음 영상 각각에서 8 종류의 얼굴 특성치들을 추출하였다. 약 50%의 영상을 사용하여 단계적 선형판별분석을 수행하였으며, 여기서 산출된 판별함수를 이용하여 나머지 영상을 분류하였다. 단일 영상에 대한 판단결과, 단계적 선형판별분석의 정확도가 사람들의 정확도보다 높았다. 쌍비교에 대한 판단결과도 단계적 선형판별분석의 정확도가 사람들의 정확도보다 높았다. 20명의 실험참가자 중 선형판별분석의 정확도를 넘어서는 사람은 없었다. 판별분석에 중요하게 사용된 얼굴 특성치는 눈머리의 각도로, 눈을 가늘게 뜬 정도를 나타낸다. Ekman의 FACS에 따르면, 이 특성치는 AU 6에 해당한다. 사람들의 정확도가 낮은 이유는 두 종류의 웃음을 구별할 때, 눈에 관한 정보를 충분히 사용하지 않았기 때문으로 추론되었다.

  • PDF

인물 얼굴의 나이 판단과 아기도식 속성에 대한 순응의 잔여효과 (Adaptation to Baby Schema Features and the Perception of Facial Age)

  • 이예진;김성호
    • 감성과학
    • /
    • 제25권4호
    • /
    • pp.157-172
    • /
    • 2022
  • 본 연구는 순응 잔여효과 패러다임을 이용하여, 아기도식 속성을 담고 있는 여러 시각 자극들(얼굴, 신체실루엣, 손)이 공통의 처리 기제를 통해 나이 지각에 영향을 주는지 확인하고자 하였다. 실험 1에서는 아기 얼굴 혹은 성인 얼굴에 순응시킨 후 아기와 성인 얼굴을 합성(morphing)한 얼굴 자극에 대해 "아기"로 지각되는지 혹은 "성인"으로 지각되는지 판단하도록 하였다. 실험 결과, 아기 순응 조건보다 성인 순응 조건에서 합성 자극을 아기로 지각하는 비율이 더 우세한, 얼굴 나이 순응 잔여효과(age adaptation aftereffect)를 확인하였다. 실험 2와 3에서는 각각 아기와 성인의 신체 실루엣과 손 이미지를 순응자극으로 사용하여 실험 1과 동일한 나이 판단 과제를 실시하였다. 실험 결과, 신체 실루엣과 손에 대한 순응은 순응자극과 같은 방향의 잔여효과(assimilative aftereffect)를 유발하거나, 순응 후에 제시되는 얼굴에 대한 나이 지각을 편향시키지 않았다. 본 연구는 성인 연령대의 얼굴 자극만을 사용한 선행 연구와 달리, 아기-성인 간 얼굴 나이 순응 잔여효과를 통해 아기와 성인 얼굴의 나이 속성이 지각적 얼굴 공간 상에서 대조적인 방향으로 부호화된다는 것을 확인하였으나, 여러 아기도식 속성들이 공통된 처리를 통해 나이 표상에 기여한다는 증거를 확인하지는 못하였다.

얼굴 표정 정서가 전환 과제 수행에 미치는 영향: 동서양 문화차 (How facial emotion affects switching cost: Eastern and Western cultural differences)

  • 태진이;남예은;이윤형;손명호;김태훈
    • 인지과학
    • /
    • 제34권3호
    • /
    • pp.227-241
    • /
    • 2023
  • 본 연구의 목적은 전환 과제 수행 시 정서 정보의 영향을 비교 문화적 관점에서 살펴보는 것이다. 보다 구체적으로 본 연구에서는 긍정 정서와 부정 정서를 표현하고 있는 사진을 사용하여 전환 과제 수행 시 정소 정보의 영향이 한국인들과 미국인들에게서 다르게 나타나는지를 살펴보고자 하였다. 이를 위하여 한국대학생들과 미국 대학생들에게 긍정 혹은 부정 얼굴을 제시하고 제시된 사진의 테두리 색깔에 맞춰 정서판단 과제 혹은 성별 판단 과제를 수행하도록 요구하였다. 실험 결과, 한국인과 미국인 모두 성별 과제에서 정서 과제로의 전환 비용이 성별 과제에서 정서 과제로의 전환 비용에 비해 유의미하게 크게 나타났고, 사진에서 표현하는 정서가 반복되는 조건이 정서가 전환되는 조건에 비해 더 큰 전환 비용을 보였다. 또한, 참가자의 문화적 배경과 무관하게 과제와 정서가 직접적으로 관련된 정서 과제가 성별 과제에 비해 정서 전환 여부에 따른 전환 비용이 더 크게 나타났다. 하지만, 정서 전환이 전환 과제 수행에 미치는 영향을 개인이 속한 문화에 따라 달랐는데, 한국인이 미국인에 비해 사진에서 표현되는 정서의 전환 여부에 덜 민감하게 반응하였다. 이러한 결과는 정서 정보가 인지과제 수행에 영향을 준다는 것을 보여주며 정서의 영향이 개인이 속하고 자라온 문화적 배경에 따라 다를 수 있음을 시사한다.

감정에 기반한 가상인간의 대화 및 표정 실시간 생성 시스템 구현 (Emotion-based Real-time Facial Expression Matching Dialogue System for Virtual Human)

  • 김기락;연희연;은태영;정문열
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권3호
    • /
    • pp.23-29
    • /
    • 2022
  • 가상인간은 가상공간(가상 현실, 혼합 현실, 메타버스 등)에서 Unity와 같은 3D Engine 전용 모델링 도구로 구현된다. 실제 사람과 유사한 외모, 목소리, 표정이나 행동 등을 구현하기 위해 다양한 가상인간 모델링 도구가 도입되었고, 어느 정도 수준까지 인간과 의사소통이 가능한 가상인간을 구현할 수 있게 되었다. 하지만, 지금까지의 가상인간 의사소통 방식은 대부분 텍스트 혹은 스피치만을 사용하는 단일모달에 머물러 있다. 최근 AI 기술이 발전함에 따라 가상인간의 의사소통 방식은 과거 기계 중심의 텍스트 기반 시스템에서 인간 중심의 자연스러운 멀티모달 의사소통 방식으로 변화할 수 있게 되었다. 본 논문에서는 다양한 대화 데이터셋으로 미세조정한 인공신경망을 사용해 사용자와 자연스럽게 대화 할 수 있는 가상인간을 구현하고, 해당 가상인간이 생성하는 문장의 감정값을 분석하여 이에 맞는 표정을 발화 중에 나타내는 시스템을 구현하여 사용자와 가상인간 간의 실시간 멀티모달 대화가 가능하게 하였다.