• Title/Summary/Keyword: 얼굴감정인식

검색결과 130건 처리시간 0.032초

얼굴영상과 음성을 이용한 멀티모달 감정인식 (Multimodal Emotion Recognition using Face Image and Speech)

  • 이현구;김동주
    • 디지털산업정보학회논문지
    • /
    • 제8권1호
    • /
    • pp.29-40
    • /
    • 2012
  • A challenging research issue that has been one of growing importance to those working in human-computer interaction are to endow a machine with an emotional intelligence. Thus, emotion recognition technology plays an important role in the research area of human-computer interaction, and it allows a more natural and more human-like communication between human and computer. In this paper, we propose the multimodal emotion recognition system using face and speech to improve recognition performance. The distance measurement of the face-based emotion recognition is calculated by 2D-PCA of MCS-LBP image and nearest neighbor classifier, and also the likelihood measurement is obtained by Gaussian mixture model algorithm based on pitch and mel-frequency cepstral coefficient features in speech-based emotion recognition. The individual matching scores obtained from face and speech are combined using a weighted-summation operation, and the fused-score is utilized to classify the human emotion. Through experimental results, the proposed method exhibits improved recognition accuracy of about 11.25% to 19.75% when compared to the most uni-modal approach. From these results, we confirmed that the proposed approach achieved a significant performance improvement and the proposed method was very effective.

생리적 내재반응 및 얼굴표정 간 확률 관계 모델 기반의 감정인식 시스템에 관한 연구 (A Study on Emotion Recognition Systems based on the Probabilistic Relational Model Between Facial Expressions and Physiological Responses)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.513-519
    • /
    • 2013
  • The current vision-based approaches for emotion recognition, such as facial expression analysis, have many technical limitations in real circumstances, and are not suitable for applications that use them solely in practical environments. In this paper, we propose an approach for emotion recognition by combining extrinsic representations and intrinsic activities among the natural responses of humans which are given specific imuli for inducing emotional states. The intrinsic activities can be used to compensate the uncertainty of extrinsic representations of emotional states. This combination is done by using PRMs (Probabilistic Relational Models) which are extent version of bayesian networks and are learned by greedy-search algorithms and expectation-maximization algorithms. Previous research of facial expression-related extrinsic emotion features and physiological signal-based intrinsic emotion features are combined into the attributes of the PRMs in the emotion recognition domain. The maximum likelihood estimation with the given dependency structure and estimated parameter set is used to classify the label of the target emotional states.

멀티스케일 LBP를 이용한 얼굴 감정 인식 (Recognition of Facial Emotion Using Multi-scale LBP)

  • 원철호
    • 한국멀티미디어학회논문지
    • /
    • 제17권12호
    • /
    • pp.1383-1392
    • /
    • 2014
  • In this paper, we proposed a method to automatically determine the optimal radius through multi-scale LBP operation generalizing the size of radius variation and boosting learning in facial emotion recognition. When we looked at the distribution of features vectors, the most common was $LBP_{8.1}$ of 31% and sum of $LBP_{8.1}$ and $LBP_{8.2}$ was 57.5%, $LBP_{8.3}$, $LBP_{8.4}$, and $LBP_{8.5}$ were respectively 18.5%, 12.0%, and 12.0%. It was found that the patterns of relatively greater radius express characteristics of face well. In case of normal and anger, $LBP_{8.1}$ and $LBP_{8.2}$ were mainly distributed. The distribution of $LBP_{8.3}$ is greater than or equal to the that of $LBP_{8.1}$ in laugh and surprise. It was found that the radius greater than 1 or 2 was useful for a specific emotion recognition. The facial expression recognition rate of proposed multi-scale LBP method was 97.5%. This showed the superiority of proposed method and it was confirmed through various experiments.

영유아 상태분석을 이용한 인공지능 베이비시터 시스템 (Artificial Intelligence Babysitter System Using Infant Condition Analysis)

  • 김용민;남지성;문대희;최원태;김웅섭
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.354-357
    • /
    • 2019
  • 최근 맞벌이 가정이 많아지면서 베이비 시터를 고용해 영아를 양육하는 경우가 많아지고 있는 추세이다. 본 논문에서는 영유아 상태분석에 따른 인공지능 베이비시터 시스템에 대하여 기술하였다. 보다 상세하게는 얼굴인식을 위한 Opencv 영상처리 기법, MS(azure)API 를 이용한 머신러닝 기반의 감정분석과 악취 센서(MQ-135 Sensor)를 이용하여 영유아의 상태를 파악한다. 파악한 영유아의 상태를 바탕으로 스스로 학습하여 요람을 제어하고 어플리케이션을 통해 원격제어를 할 수 있도록 제작한 스마트 베이비시터 시스템에 관한 것이다. 이에 따라 양육에 대한 부담감이 줄어들 것으로 기대하고 양육에 대한 부담감을 조금이나마 경감 시켜 주어 저출산과 양육 지출 비용 절약으로 사회적 측면, 경제적 측면 모두에 기여할 것을 기대한다.

양육 결정 미혼모의 초기 모성 경험에 관한 연구 -해석학적 근거이론 방법- (A Study on the Initial Motherhood Experiences of Non-married Mothers who Decided to Raise Their Babies -Hermeneutic Grounded Theory Methodology-)

  • 임해영;이혁구
    • 사회복지연구
    • /
    • 제45권3호
    • /
    • pp.35-69
    • /
    • 2014
  • 이 연구는 양육 결정 미혼모의 초기 모성 경험을 탐색하고자, 7명의 연구 참여자를 대상으로 Rennie의 해석학적 근거이론 방법을 활용하였다. 분석 결과, 145개 의미단위, 34개 하위 범주를 통해, '출산 선택', '바닥을 치는 기분', '뱃속 생명에 대한 양가감정', '모성 인식', '모성 불안', '사회적 꼬리표라는 굴레', '모성 희망', '새로운 나를 만남', '고단한 삶의 얼굴' 이란 9개의 해석학적 범주를 구성하였다. 연구 참여자들의 모성 경험을 통합하는 핵심범주로는 "약이면서 독이고, 독이면서 약인 모성의 갈등적 두 얼굴로 살아가기"로 상정하였다. 그리고 이들의 모성 경험 과정은 출산 선택, 심리적 좌절, 모성 인식, 모성 혼란, 희망과 좌절의 공존 5단계로 나타났고, 모성 경험 유형은 순응형, 갈등형, 저항형으로 분석되었다. 이러한 연구 결과를 토대로 양육 결정 미혼모의 모성 경험은 어머니라는 새로운 주체를 출현시키는 과정으로 드러났다. 그리고 이들은 사회문화적으로 부여된 모성 이데올로기를 내면화하는 과정 속에서 사회적으로 지향된 모성과 현실적인 모성 역할 사이의 간극으로 인해 혼란을 경험하는 것으로 나타났다. 이를 기반으로 양육결정 미혼모의 초기 모성을 지지해줄 수 있는 개입 방안을 제언하였다.

영상분석 기술을 활용한 시니어용 동영상 편집 시스템 (Video Content Editing System for Senior Video Creator based on Video Analysis Techniques)

  • 장달원;이재원;이종설
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.499-510
    • /
    • 2022
  • 본 논문에서는 영상 편집이 익숙하지 않은 시니어 동영상 크리에이터를 위한 동영상 편집 시스템을 설명한다. 영상분석 기술을 이용하여 편집소스 동영상을 분석하여 각종 정보를 제공하고, 자동으로 일부 장면을 삭제한다. 사용자가 다수의 소스 콘텐츠를 입력하였을 때, RNN(Recurrent Neural Network) 기술을 기반으로 샷 단위로 분할하고, 이 중 동영상 편집에서 배제할 부분을 구분한다. 각 샷 별로 중요도를 계산하여 샷 단위로 자동 삭제가 가능하도록 한다. 중요도 계산을 위해서 동영상 초점 정보를 추출하여 활용하는데, 이는 초점이 맞지 않는 영상 또는 흔들린 영상을 배제할 수 있도록 한다. 이후 시스템은 객체 인식을 수행하고, 얼굴이 나온 영상에 대해서 감정, 나이, 성별 등의 정보를 추출하여 사용자에게 제공한다. 사용자는 이런 정보를 활용하여 동영상을 제작한다. 동영상에 자막을 삽입하는 등 동영상을 꾸미기 위한 기능들도 포함되어 있으며, 이런 기능들을 활용할 시, 사용자의 과거 정보를 이용해서 선호 디자인을 쉽게 찾을 수 있도록 앞서 배치하고 있다. 시니어 동영상 크리에이터들이 본 시스템을 통해서 쉽고 빠르게 동영상 콘텐츠를 제작할 수 있다.

인공신경망을 이용한 샷 사이즈 분류를 위한 ROI 탐지 기반의 익스트림 클로즈업 샷 데이터 셋 생성 (Generating Extreme Close-up Shot Dataset Based On ROI Detection For Classifying Shots Using Artificial Neural Network)

  • 강동완;임양미
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.983-991
    • /
    • 2019
  • 본 연구는 영상 샷의 크기에 따라 다양한 스토리를 갖고 있는 영상들을 분석하는 것을 목표로 한다. 따라서 영상 분석에 앞서, 익스트림 클로즈업 샷, 클로즈업 샷, 미디엄 샷, 풀 샷, 롱 샷 등 샷 사이즈에 따라 데이터셋을 분류하는 것이 선행되어야 한다. 하지만 일반적인 비디오 스토리 내의 샷 분포는 클로즈업 샷, 미들 샷, 풀 샷, 롱 샷 위주로 구성되어 있기 때문에 충분한 양의 익스트림 클로즈업 샷 데이터를 얻는 것이 상대적으로 쉽지 않다. 이를 해결하기 위해 본 연구에서는 관심 영역 (Region Of Interest: ROI) 탐지 기반의 이미지 크롭핑을 통해 익스트림 클로즈업 샷을 생성함으로써 영상 분석을 위한 데이터셋을 확보 방법을 제안한다. 제안 방법은 얼굴 인식과 세일리언시(Saliency)를 활용하여 이미지로부터 얼굴 영역 위주의 관심 영역을 탐지한다. 이를 통해 확보된 데이터셋은 인공신경망의 학습 데이터로 사용되어 샷 분류 모델 구축에 활용된다. 이러한 연구는 비디오 스토리에서 캐릭터들의 감정적 변화를 분석하고 시간이 지남에 따라 이야기의 구성이 어떻게 변화하는지 예측 가능하도록 도움을 줄 수 있다. 향후의 엔터테인먼트 분야에 AI 활용이 적극적으로 활용되어질 때 캐릭터, 대화, 이미지 편집 등의 자동 조정, 생성 등에 영향을 줄 것이라 예상한다.

뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스 연구: 암묵적 적합성 피드백 활용을 중심으로 (Digital Library Interface Research Based on EEG, Eye-Tracking, and Artificial Intelligence Technologies: Focusing on the Utilization of Implicit Relevance Feedback)

  • 김현희;김용호
    • 정보관리학회지
    • /
    • 제41권1호
    • /
    • pp.261-282
    • /
    • 2024
  • 본 연구는 디지털 도서관의 콘텐츠를 탐색하는 동안 이용자의 암묵적 적합성 피드백을 활용하여 적합성을 판단하기 위해 뇌파 기반 및 시선추적 기반 방법들을 제안하고 평가해 보았다. 이를 위해서 32명을 대상으로 하여 동영상, 이미지, 텍스트 데이터를 활용하여 뇌파/시선추적 실험들을 수행하였다. 제안된 방법들의 유용성을 평가하기 위해서, 딥러닝 기반의 인공지능 방법들을 경쟁 기준으로 사용하였다. 평가 결과, 주제에 적합한 동영상과 이미지(얼굴/감정)를 선택하는 데에는 뇌파 컴포넌트 기반 방법들(av_P600, f_P3b)이 높은 분류 정확도를 나타냈고, 이미지(객체)와 텍스트(신문 기사)를 선택하는 데에는 인공지능 기반 방법 즉, 객체 인식 기반 방법과 자연언어 처리 방법이 각각 높은 분류 정확도를 나타냈다. 끝으로, 뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스를 구현하기 위한 지침 즉, 암묵적 적합성 피드백에 기반한 시스템 모형을 제안하고, 분류 정확도를 향상시키기 위해서 미디어별로 적합한 뇌파 기반, 시선추적 기반 및 인공지능 기반 방법들을 제시하였다.

초등학생들의 대인관계 기술 함양을 위한 통합적 적용방안 연구 (Study on the integrative application program for cultivating primary school students' personal relationship skills)

  • 최복희
    • 한국철학논집
    • /
    • 제25호
    • /
    • pp.71-71
    • /
    • 2009
  • 본 연구는 초등학생들이 "어떻게 하면 바르고 선한 인성을 함양할 수 있을 것인가"에 대한 인성교육 프로그램을 고안하기 위한 이론적 토대를 제공하고자 한다. 이를 위해 본 연구는 "사회 정서적 학습 이론에 근거한 통합적 접근"에 근거를 두고, 학생의 인격형성에 직간접적 영향을 끼치는 매체인 학교와 가정, 지역공동체(사회)를 통합한 프로그램을 개발하여, 교육기관의 도덕교육과정과 주변환경의 잠재적 교육과정을 최대한 활용할 것이다. 또한, 다양한 사회정서적 능력 중에서도 본 논문은 연구의 중심 주제는 "사회인식(social-awareness) 및 대인관계 기술(relationship skills)"에 관한 부분을 특화하여, 동양윤리의 덕론을 활용하면서 인성교육의 통합적 방안을 제안하는 것이다. 따라서 "사회인식 및 대인관계 기술 함양"을 위하여 다음과 같이 동양윤리의 덕목들을 활용하였다. 사회적 역할 인식과 수행에서 합리적 태도를 선택하는 능력을 함양하기 위해서는 "이름을 바로잡는다(正名)"의 덕목을 활용하고, 내면의 도덕성 함양을 기초로 타인을 배려하는 능력을 기르기 위하여 "나의 마음을 충실히 하여 남에게까지 미루어 이해한다(충서(忠恕))"를 활용할 수 있다. 또, 타인과의 갈등상황에서 신중한 자기반성을 우선하는 덕목으로는 "자기에게 돌이켜 구한다(반구제기(反求諸己))"가 있고, 대인관계에서 감정표현을 순화하는 "얼굴빛을 온화하게 하는 것이 어렵다(색난(色難))"는 덕목은 타인의 처지와 성격을 이해하고 그에 맞게 대처하는 방법이다. 대인관계에서 유익하고 긍정적인 성과를 도모하는 대인관계 기술로 "선한 점을 가려내어 그것을 따르고 선하지 않은 점은 고친다(택기선자이종지(擇其善者而從之), 기부선자이개지(其不善者而改之))"는 구절을 활용할 수 있다. 지속적인 대인관계에서 정서적 유능성을 발휘하기 위하여 "오래 되어도 상대를 존중한다(구이경지(久而敬之))"를 활용하고자 하였다. 나아가, 본 논문에서는 정명과 반구저기를 활용하여, 가정과 학교, 지역공동체의 세 영역을 통합한 하나의 방안을 구성해보았다.

BERTopic을 활용한 인간-로봇 상호작용 동향 연구 (A Study on Human-Robot Interaction Trends Using BERTopic)

  • 김정훈;곽기영
    • 지능정보연구
    • /
    • 제29권3호
    • /
    • pp.185-209
    • /
    • 2023
  • 4차 산업혁명의 도래와 함께 다양한 기술이 주목을 받고 있다. 4차 산업혁명과 관련된 기술로는 IoT(Internet of Things), 빅데이터, 인공지능, VR(Virtual Reality), 3D 프린터, 로봇공학 등이 있으며 이러한 기술은 종종 융합된다. 특히 로봇 분야는 빅데이터, 인공지능, VR, 디지털 트윈과 같은 기술과 결합할 것으로 기대된다. 이에 따라 로봇을 활용한 연구가 다수 진행되고 있으며 유통, 공항, 호텔, 레스토랑, 교통 분야 등에 적용되고 있다. 이러한 상황에서 인간-로봇 상호작용에 대한 연구가 주목을 받고 있지만 아직 만족할 만한 수준에는 이르지 못하고 있다. 하지만 완벽한 의사소통이 가능한 로봇에 대한 연구가 꾸준히 이루어지고 있고 이는 인간의 감정노동을 대신할 수 있을 것으로 기대된다. 따라서 현재의 인간-로봇 상호작용 기술을 비즈니스에 적용할 수 있는지에 대한 논의가 필요하다. 이를 위해 본 연구는 첫째, 인간로봇 상호작용 기술의 동향을 살펴본다. 둘째, LDA(Latent Dirichlet Allocation) 토픽모델링과 BERTopic 토픽모델링 방법을 비교한다. 연구 결과, 1992년~2002년 간의 연구에서는 인간-로봇 상호작용에 대한 개념과 기초적인 상호작용에 대해 논의되고 있었다. 2003년~2012년에는 사회적 표현에 대한 연구가 많이 진행되었으며 얼굴검출, 인식 등과 같이 판단과 관련된 연구도 수행되었다. 2013년~2022년에는 노인 간호, 교육, 자폐 치료와 같은 서비스 토픽들이 등장하였으며, 사회적 표현에 대한 연구가 지속되었다. 그러나 아직까지 비즈니스에 적용할 수 있는 수준에는 이르지 못한 것으로 보인다. 그리고 LDA토픽모델링과 BERTopic 토픽모델링 방법을 비교한 결과 LDA에 비해 BERTopic이 더 우수한 방법임을 확인하였다.