• 제목/요약/키워드: 감정 인식

검색결과 904건 처리시간 0.026초

초등학생들의 감정인식과 공감능력 향상을 위한 맞춤형 모바일 앱 개발 (Development of a Tailored Mobile Application to Improve Elementary School Students' Competencies of Emotional Awareness and Empathy)

  • 김은정;이유나;이상수
    • 컴퓨터교육학회논문지
    • /
    • 제17권3호
    • /
    • pp.85-99
    • /
    • 2014
  • 최근 학교폭력, 집단 따돌림과 같은 청소년 문제가 점차 저 연령화가 되고 있는 상황이다. 이러한 상황을 극복하기 위한 하나의 대안으로 감정교육의 중요성이 부각되고 있는데, 기존의 모바일 앱을 분석해 본 결과, 대부분 재미위주와 정보제시 접근에서만 이루어져왔다. 이에 본 연구에서는 감정교육의 기초적 역량인 감정인식 역량에 초점을 두고 학습자들의 진단과 훈련, 적용이 함께 가능한 교육용 모바일 앱을 프로토타입 수준에서 개발하였다. 모바일 앱을 개발하기 위해서 첫째, 감정인식 교육 프로그램을 검토하여 감정인식 역량인 자기감정파악, 자기감정표현, 타인감정파악, 타인감정 공감하기 등을 도출하였다. 둘째, 기존의 감정인식 앱을 분석하여 감정인식 역량을 함양할 수 있는 거시적 설계원리와 미시적 설계전략을 도출하였다. 셋째, 설계원리와 전략에 따른 앱 구조도와 앱 프로토타입에 대해서 전문가 검토 및 형성평가를 실시하여 완성된 모바일 앱 프로토타입을 완성하였다. 본 연구에서 제안한 앱은 재미와 학습, 수행이 함께 이루어지며, 학습자들의 수준에 따른 맞춤형 학습이 가능하다는 점에 의의가 있다. 뿐만아니라, 효율적이고 매력적인 학습공간으로서 체계적인 진단과 훈련을 통해서 초등학생들의 감정인식 역량을 향상시킬 수 있을 것이다.

  • PDF

감정의 시각화를 위한 인공감정 설계 (Design of an Artificial Emotion for visualizing emotion)

  • 함준석;손충연;정찬순;박준형;여지혜;고일주
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 추계학술대회
    • /
    • pp.91-94
    • /
    • 2009
  • 인공감정에 관련된 기존의 연구는 대부분 감정의 인식과 물리적 표현에 중점 되어 연구되었다. 하지만 감정은 성격에 따라 달리 표출되고, 시간에 따라 변화 양상을 갖는다. 또한 새로운 감정자극을 받기 이 전의 감정상태에 따라서 표출 될 감정은 달라진다. 본 논문은 감정을 성격, 시간, 감정간의 관계에 따라 관리하여 현재 표출될 감정을 시각화 해주는 인공감정을 제안한다. 감정을 시각화하기 위해서 본 논문의 인공감정은 감정그래프와 감정장을 갖는다. 감정그래프는 특정 감정을 성격과 시간에 따라 표현하는 2차원 형태의 그래프 이다. 감정장은 감정그래프에서 표현된 서로 다른 종류의 감정들을 시간과 감정간의 관계에 따라 시각화 해주는 3차원 형태의 모델이다. 제안된 인공감정을 통해 감정을 시각화해 보기 위해, 감정의 인식과 물리적 표현을 텍스트 기반으로 간소화시킨 시뮬레이터에 적용했다.

  • PDF

ICA-Factorial 표현을 이용한 얼굴감정인식 (Face Expression Recognition using ICA-Factorial Representation)

  • 한수정;고현주;곽근창;전명근
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2002년도 추계학술대회 및 정기총회
    • /
    • pp.329-332
    • /
    • 2002
  • 본 논문에서는 효과적인 정보를 표현하는 ICA(Independent Component Analysis)-Factorial 표현 방법을 이용하여 얼굴감정인식을 수행한다. 얼굴감정인식은 두 단계인 특징추출과 인식단계에 의해 이루어진다. 먼저 특징추출방법은 PCA(Principal Component Analysis)을 이용하여 얼굴영상의 고차원 공간을 저차원 특징공간으로 변환한 후 ICA-factorial 표현방법을 통해 좀 더 효과적으로 특징벡터를 추출한다. 인식단계는 최소거리 분류방법인 유클리디안 거리를 이용하여 얼굴감정을 인식한다. 이 방법의 유용성을 설명하기 위해 6개의 기본감정(행복, 슬픔, 화남, 놀람, 공포, 혐오)에 대해 얼굴데이터베이스를 구축하고, 기존의 방법인 Eigenfaces, Fishefaces와 비교하여 좋은 인식성능을 보이고자 한다.

감정 변화에 강인한 음성 인식 (Robust Speech Recognition for Emotional Variation)

  • 김원구
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.431-434
    • /
    • 2007
  • 본 논문에서는 인간의 감정 변화의 영향을 적게 받는 음성 인식 시스템의 특정 파라메터에 관한 연구를 수행하였다. 이를 위하여 우선 다양한 감정이 포함된 음성 데이터베이스를 사용하여 감정 변화가 음성 인식 시스템의 성능에 미치는 영향과 감정 변화의 영향을 적게 받는 특정 파라메터에 관한 연구를 수행하였다. 본 연구에서는 LPC 켑스트럼 계수, 멜 켑스트럼 계수, 루트 켑스트럼 계수, PLP 계수와 RASTA 처리를 한 멜 켑스트럼 계수와 음성의 에너지를 사용하였다. 또한 음성에 포함된 편의(bias)를 제거하는 방법으로 CMS 와 SBR 방법을 사용하여 그 성능을 비교하였다. HMM 기반의 화자독립 단어 인식기를 사용한 실험 결과에서 RASTA 멜 켑스트럼과 델타 켑스트럼을 사용하고 신호편의 제거 방법으로 CMS를 사용한 경우에 가장 우수한 성능을 나타내었다. 이러한 것은 멜 켑스트럼을 사용한 기준 시스템과 비교하여 59%정도 오차가 감소된 것이다.

  • PDF

음성 신호와 얼굴 영상을 이용한 특징 및 결정 융합 기반 감정 인식 방법 (Emotion Recognition Method based on Feature and Decision Fusion using Speech Signal and Facial Image)

  • 주종태;양현창;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.11-14
    • /
    • 2007
  • 인간과 컴퓨터간의 상호교류 하는데 있어서 감정 인식은 필수라 하겠다. 그래서 본 논문에서는 음성 신호 및 얼굴 영상을 BL(Bayesian Learning)과 PCA(Principal Component Analysis)에 적용하여 5가지 감정 (Normal, Happy, Sad, Anger, Surprise) 으로 패턴 분류하였다. 그리고 각각 신호의 단점을 보완하고 인식률을 높이기 위해 결정 융합 방법과 특징 융합 방법을 이용하여 감정융합을 실행하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 융합하였으며, 특정 융합 방법은 SFS(Sequential Forward Selection)특정 선택 방법을 통해 우수한 특정들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 융합을 실행하였다.

  • PDF

얼굴표정을 통한 감정 분류 및 음악재생 프로그램 (Music player using emotion classification of facial expressions)

  • 윤경섭;이상원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.243-246
    • /
    • 2019
  • 본 논문에서는 감성과 힐링, 머신러닝이라는 주제를 바탕으로 딥러닝을 통한 사용자의 얼굴표정을 인식하고 그 얼굴표정을 기반으로 음악을 재생해주는 얼굴표정 기반의 음악재생 프로그램을 제안한다. 얼굴표정 기반 음악재생 프로그램은 딥러닝 기반의 음악 프로그램으로써, 이미지 인식 분야에서 뛰어난 성능을 보여주고 있는 CNN 모델을 기반으로 얼굴의 표정을 인식할 수 있도록 데이터 학습을 진행하였고, 학습된 모델을 이용하여 웹캠으로부터 사용자의 얼굴표정을 인식하는 것을 통해 사용자의 감정을 추측해낸다. 그 후, 해당 감정에 맞게 감정을 더 증폭시켜줄 수 있도록, 감정과 매칭되는 노래를 재생해주고, 이를 통해, 사용자의 감정이 힐링 및 완화될 수 있도록 도움을 준다.

  • PDF

한국어 문미억양 강조를 통한 향상된 음성문장 감정인식 (Toward More Reliable Emotion Recognition of Vocal Sentences by Emphasizing Information of Korean Ending Boundary Tones)

  • 이태승;박미경;김태수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.514-516
    • /
    • 2005
  • 인간을 상대하는 자율장치는 고객의 자발적인 협조를 얻기 위해 암시적인 신호에 포함된 감정과 태도를 인지할 수 있어야 한다. 인간에게 음성은 가장 쉽고 자연스럽게 정보를 교환할 수 있는 수단이다. 지금까지 감정과 태도를 이해할 수 있는 자동시스템은 발성문장의 피치와 에너지에 기반한 특징을 활용하였다. 이와 같은 기존의 감정인식 시스템의 성능은 문장의 특정한 억양구간이 감정과 태도와 관련을 갖는다는 언어학적 지식의 활용으로 보다 높은 향상이 가능하다. 본 논문에서는 한국어 문미억양에 대한 언어학적 지식을 피치기반 특징과 다층신경망을 활용하여 구현한 자동시스템에 적용하여 감정인식률을 향상시킨다. 한국어 감정음성 데이터베이스를 대상으로 실험을 실시한 결과 $4\%$의 인식률 향상을 확인하였다.

  • PDF

신체움직임에 대한 컴퓨터비전 기반 실시간 감정인식 (Emotion Recognition from Body Movement)

  • 박한훈;박종일;우운택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 제14회 신호처리 합동 학술대회 논문집
    • /
    • pp.157-160
    • /
    • 2001
  • 컴퓨터와 주변장치의 급속한 발전은 인간과 컴퓨터 사이의 인터페이스에 많은 변화를 가져왔다. 특히, 인간의 감정을 인식하는 기술은 컴퓨터를 보다 인간 친화적으로 만들기 위한 노력으로, 그 동안 꾸준히 진행되어 왔다. 본 논문에서는 한대의 카메라로 촬영한 영상으로부터 실시간으로 신체움직임이 표현하는 감정을 인식할 수 있는 방법을 제안하고, PC기반의 실시간 감정 인식 시스템을 구현한다.

  • PDF

비전 기반의 감정인식 로봇 개발 (Development of Vision based Emotion Recognition Robot)

  • 박상성;김정년;안동규;김재연;장동식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.670-672
    • /
    • 2005
  • 본 논문은 비전을 기반으로 한 감정인식 로봇에 관한 논문이다. 피부스킨칼라와 얼굴의 기하학적 정보를 이용한 얼굴검출과 감정인식 알고리즘을 제안하고, 개발한 로봇 시스템을 설명한다. 얼굴 검출은 RGB 칼라 공간을 CIElab칼라 공간으로 변환하여, 피부스킨 후보영역을 추출하고, Face Filter로 얼굴의 기하학적 상관관계를 통하여 얼굴을 검출한다. 기하학적인 특징을 이용하여 눈, 코, 입의 위치를 판별하여 표정 인식의 기본 데이터로 활용한다. 눈썹과 입의 영역에 감정 인식 윈도우를 적용하여, 윈도우 내에서의 픽셀값의 변화와 크기의 변화로 감정인식의 특징 칼을 추출한다. 추출된 값은 실험에 의해서 미리 구해진 샘플과 비교를 통해 강정을 표현하고, 표현된 감정은 Serial Communication을 통하여 로봇에 전달되고, 감정 데이터를 받은 얼굴에 장착되어 있는 모터를 통해 표정을 표현한다.

  • PDF

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.