• 제목/요약/키워드: 감정표현향상

검색결과 79건 처리시간 0.024초

청각장애인을 위한 지상파 UHD 기반 감정표현 자막 수신 시스템 설계 (Design of Emotion Subtitles System based on Terrestrial UHD TV for the Hearing-Impaired)

  • 송진혁;배병준;조숙희;안충현
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.135-136
    • /
    • 2021
  • 최근 지상파 UHD 방송에서는 자막을 비디오 패킷에 삽입하여 전달하는 기존 방식이 아닌 별도의 전송로로 전달하는 폐쇄형 자막(closed caption) 방식을 적용하고 있다. 또한 자막에는 문자 뿐만 아니라 이미지까지 포함하여 청각장애인의 프로그램 이해도를 높이는데 활용할 수 있다. 따라서 본 논문에서는 청각장애 시청자가 방송 콘텐츠 내용의 이해도를 향상시키기 위하여 지상파 UHD 방송에서 기존의 문자 자막과 움직이는 이미지 자막(=감정표현 자막)을 수신하여 동시에 표현할 수 있는 수신시스템을 제안한다.

  • PDF

호스피스 환자들의 언어적·비언어적 표현 증진을 위한음악적 활용 (Use of music to facilitate verbal and nonverbal expression for older adults in the hospice care)

  • 정현주;최성윤
    • 인간행동과 음악연구
    • /
    • 제2권1호
    • /
    • pp.35-46
    • /
    • 2005
  • 호스피스 환자들은 질병으로 인한 심리 정서적 문제를 동반하는데 이에 대한 적절한 치료적 개입이 이루어지지 않으면 이러한 문제가 신체화 현상으로 나타나면서 삶의 질을 방해하는 요인으로 작용한다. 본 연구는 음악이 부정적인 자기 은폐(self-concealment)를 감소시키고 언어적 비언어적 표현(self-expression)을 촉진시키는 지를 보고자하는 데에 그 목적을 두었다. 호스피스 기관에 있는 전문가들로부터 추천받은 3명의 말기 환자들을 대상으로 4개월간의 음악치료 세션을 실시하였으며, 음악치료는 각 환자들의 상태에 따라 총 9회에서 11회에 걸쳐 진행되었다. 자기은폐척도(Self-Concealment Scale: SCS)와 자기서술문(Personal Descriptive Essays)을 이용하여 음악치료프로그램 사전, 사후 검사를 실행한 후 양적 및 질적 자료를 산출하여 결과를 분석하였다. 연구 결과 다양한 음악적 개입 중에서 특히 노래를 중심으로 구성된 프로그램이 삶과 관련된 여러 가지 주제와 감정적 내용들에 대한 환자들의 반응을 이끌어 내는 데에 효과적임을 보여주었다. 사후 검사에서 환자들의 자기은폐 수준이 낮아졌으며, 자기서술문에서 보고된 자료에는 사실적인 내용 대신 감정적 내용이 증가하였음을 보여주었다. 본 연구는 여러 가지 심리 정서적 어려움을 가지고 있는 말기 환자들에게 감정표현과 의사소통 매개체로서 음악이 효과적이라는 결과를 보여주었다. 또한, 자기감정과의 만남과 이에 대한 표현은 삶의 질을 향상시킨다는 관점에서 감상과 같은 수동적 참여를 기본으로 환자의 활동 수준에 맞추어 음악프로그램을 구성한다면 환자들의 삶의 질을 향상시킬 수 있다는 점을 시사한다.

  • PDF

이미지와 해시태그를 이용한 인스타그램의 감정 분석 연구 (A Study on the Emotion Analysis of Instagram Using Images and Hashtags)

  • 정다혜;김장원
    • 한국정보기술학회논문지
    • /
    • 제17권9호
    • /
    • pp.123-131
    • /
    • 2019
  • 최근 소셜 네트워크 서비스 사용자들은 게시글을 통해 사회적 이슈 및 관심 콘텐츠들에 대한 자신의 감정을 적극적으로 표현하고 공유한다. 그 결과 소셜 네트워크에서의 개인 및 특정 집단의 감정 공유는 빠르게 확산된다. 그러므로 사용자들의 게시글에 대한 감정 분석 연구가 활발히 진행되고 있다. 그렇지만 다양한 감정이 포함된 게시글에 대한 감정 분석 연구가 미흡하다. 따라서 본 논문에서는 해시태그와 이미지를 이용한 인스타그램 게시글의 대표 감정 분석 방법을 제안한다. 이를 통해 사용자 게시글에 포함된 다종의 리소스를 활용하여 다중의 감정으로부터 대표 감정을 추출할 수 있으며 66.4%의 정확도와 81.7%의 재현율로 기존 방법보다 감정 분류 성능 향상을 보인다.

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.

감정 분류를 위한 한국어 감정 자질 추출 기법과 감정 자질의 유용성 평가 (A Korean Emotion Features Extraction Method and Their Availability Evaluation for Sentiment Classification)

  • 황재원;고영중
    • 인지과학
    • /
    • 제19권4호
    • /
    • pp.499-517
    • /
    • 2008
  • 본 논문에서는 한국어 감정 분류에 기반이 되는 감정 자질 추출의 효과적인 추출 방법을 제안하고 평가하여, 그 유용성을 보인다. 한국어 감정 자질 추출은 감정을 지닌 대표적인 어휘로부터 시작하여 확장할 수 있으며, 이와 같이 추출된 감정 자질들은 문서의 감정을 분류하는데 중요한 역할을 한다. 문서 감정 분류에 핵심이 되는 감정 자질의 추출을 위해서는 영어 단어 시소러스 유의어 정보를 이용하여 자질들을 확장하고, 영한사전을 이용하여 확장된 자질들을 번역하여 감정 자질들을 추출하였다. 추출된 한국어 감정 자질들을 평가하기 위하여, 이진 분류 기법인 지지 벡터 기계(Support Vector Machine)를 사용해서 한국어 감정 자질로 표현된 입력문서의 감정을 분류하였다. 실험 결과, 추출된 감정 자질을 사용한 경우가 일반적인 정보 검색에서 사용하는 내용어(Content Word) 기반의 자질을 사용한 경우보다 약 14.1%의 성능 향상을 보였다.

  • PDF

FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현 (On the Implementation of a Facial Animation Using the Emotional Expression Techniques)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 본 논문은 여러 가지 감정들 중에서 4가지 감정의 범주 즉, 중성, 두려움, 싫증 및 놀람을 포함한 음성과 감성이 결합되어진 얼굴의 표정을 좀 더 정확하고 자연스러운 3차원 모델로 만들 수 있는 FAES(a Facial Animation with Emotion and Speech) 시스템을 구축하는데 그 주된 목적이 있다. 이를 위해서 먼저 사용할 훈련자료를 추출하고 난후에 감성을 처리한 얼굴 애니메이션에서는 SVM(Support vector machine)[11]을 사용하여 4개의 감정을 수반한 얼굴 표정을 데이터베이스로 구축한다. 마지막으로 얼굴 표정에 감정과 음성이 표현되는 시스템을 개발하는 것이다. 얼굴 표정을 위해서 본 논문에서는 한국인 청년을 대상으로 이루어졌다. 이런 시스템을 통한 결과가 기존에 제시된 방법에 비해서 감정의 영역을 확대시킴은 물론이고 감정인지의 정확도가 약 7%, 어휘의 연속 음성인지가 약 5%의 향상을 시켰다.

  • PDF

'공감'을 기반으로 한 의사소통교육 방법 모색 ; 영화 <500일의 섬머>를 예로 (A Study on the Methods of Communication Education based on 'Empathy'; for Example <(500) Days of Summer>)

  • 김경애
    • 디지털융복합연구
    • /
    • 제19권3호
    • /
    • pp.279-285
    • /
    • 2021
  • 이 글에서는 코로나19 대응 온라인 수업이 지식정보 교육 중심으로 이루어져 사회성 교육이 부족했음을 비판하고, 학생들의 공감 능력을 향상시킬 수 있는 수업 방법을 모색하였다. 이별과 성장이라는 소재와 스토리를 지닌 영화 <500일의 섬머>를 중심으로 교수학습과정을 설계하였는데, 공감의 단계를 감정인지, 감정이입, 감정교류의 3단계로 구분하고 이를 중심으로 수업 모형을 구안하였다. 특히 정서적 공감에서 행위적 공감으로 이행하는 과정을 의사소통교육의 요체로 보아, 감정이입 단계와 감정교류(1,2차) 단계 사이에 표현 단계를 두어 5단계로 수업을 구안하였다. 이러한 수업은 학습자가 작품서사에 공감하고 자기서사를 반추하게 될 때 가능하므로 문학치료학을 활용하였으며, 학생들의 반응진술을 수집하여 이러한 수업 과정이 공감능력 향상에 유의미함을 증명하였다. 이 글에서는 영화 <500일의 섬머>를 대상으로 수업을 구안하였으나, 이러한 교수학습모형은 현대의 다른 영화 텍스트에도 얼마든지 적용될 수 있을 것이다.

세밀한 감정 음성 합성 시스템의 속도와 합성음의 음질 개선 연구 (A study on the improvement of generation speed and speech quality for a granularized emotional speech synthesis system)

  • 엄세연;오상신;장인선;안충현;강홍구
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.453-455
    • /
    • 2020
  • 본 논문은 시각 장애인을 위한 감정 음성 자막 서비스를 생성하는 종단 간(end-to-end) 감정 음성 합성 시스템(emotional text-to-speech synthesis system, TTS)의 음성 합성 속도를 높이면서도 합성음의 음질을 향상시키는 방법을 제안한다. 기존에 사용했던 전역 스타일 토큰(Global Style Token, GST)을 이용한 감정 음성 합성 방법은 다양한 감정을 표현할 수 있는 장점을 갖고 있으나, 합성음을 생성하는데 필요한 시간이 길고 학습할 데이터의 동적 영역을 효과적으로 처리하지 않으면 합성음에 클리핑(clipping) 현상이 발생하는 등 음질이 저하되는 양상을 보였다. 이를 보안하기 위해 본 논문에서는 새로운 데이터 전처리 과정을 도입하였고 기존의 보코더(vocoder)인 웨이브넷(WaveNet)을 웨이브알엔엔(WaveRNN)으로 대체하여 생성 속도와 음질 측면에서 개선됨을 보였다.

  • PDF

Identity-CBAM ResNet 기반 얼굴 감정 식별 모듈 (Face Emotion Recognition using ResNet with Identity-CBAM)

  • 오규태;김인기;김범준;곽정환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.559-561
    • /
    • 2022
  • 인공지능 시대에 들어서면서 개인 맞춤형 환경을 제공하기 위하여 사람의 감정을 인식하고 교감하는 기술이 많이 발전되고 있다. 사람의 감정을 인식하는 방법으로는 얼굴, 음성, 신체 동작, 생체 신호 등이 있지만 이 중 가장 직관적이면서도 쉽게 접할 수 있는 것은 표정이다. 따라서, 본 논문에서는 정확도 높은 얼굴 감정 식별을 위해서 Convolution Block Attention Module(CBAM)의 각 Gate와 Residual Block, Skip Connection을 이용한 Identity- CBAM Module을 제안한다. CBAM의 각 Gate와 Residual Block을 이용하여 각각의 표정에 대한 핵심 특징 정보들을 강조하여 Context 한 모델로 변화시켜주는 효과를 가지게 하였으며 Skip-Connection을 이용하여 기울기 소실 및 폭발에 강인하게 해주는 모듈을 제안한다. AI-HUB의 한국인 감정 인식을 위한 복합 영상 데이터 세트를 이용하여 총 6개의 클래스로 구분하였으며, F1-Score, Accuracy 기준으로 Identity-CBAM 모듈을 적용하였을 때 Vanilla ResNet50, ResNet101 대비 F1-Score 0.4~2.7%, Accuracy 0.18~2.03%의 성능 향상을 달성하였다. 또한, Guided Backpropagation과 Guided GradCam을 통해 시각화하였을 때 중요 특징점들을 더 세밀하게 표현하는 것을 확인하였다. 결과적으로 이미지 내 표정 분류 Task에서 Vanilla ResNet50, ResNet101을 사용하는 것보다 Identity-CBAM Module을 함께 사용하는 것이 더 적합함을 입증하였다.

초등학생들의 감정인식과 공감능력 향상을 위한 맞춤형 모바일 앱 개발 (Development of a Tailored Mobile Application to Improve Elementary School Students' Competencies of Emotional Awareness and Empathy)

  • 김은정;이유나;이상수
    • 컴퓨터교육학회논문지
    • /
    • 제17권3호
    • /
    • pp.85-99
    • /
    • 2014
  • 최근 학교폭력, 집단 따돌림과 같은 청소년 문제가 점차 저 연령화가 되고 있는 상황이다. 이러한 상황을 극복하기 위한 하나의 대안으로 감정교육의 중요성이 부각되고 있는데, 기존의 모바일 앱을 분석해 본 결과, 대부분 재미위주와 정보제시 접근에서만 이루어져왔다. 이에 본 연구에서는 감정교육의 기초적 역량인 감정인식 역량에 초점을 두고 학습자들의 진단과 훈련, 적용이 함께 가능한 교육용 모바일 앱을 프로토타입 수준에서 개발하였다. 모바일 앱을 개발하기 위해서 첫째, 감정인식 교육 프로그램을 검토하여 감정인식 역량인 자기감정파악, 자기감정표현, 타인감정파악, 타인감정 공감하기 등을 도출하였다. 둘째, 기존의 감정인식 앱을 분석하여 감정인식 역량을 함양할 수 있는 거시적 설계원리와 미시적 설계전략을 도출하였다. 셋째, 설계원리와 전략에 따른 앱 구조도와 앱 프로토타입에 대해서 전문가 검토 및 형성평가를 실시하여 완성된 모바일 앱 프로토타입을 완성하였다. 본 연구에서 제안한 앱은 재미와 학습, 수행이 함께 이루어지며, 학습자들의 수준에 따른 맞춤형 학습이 가능하다는 점에 의의가 있다. 뿐만아니라, 효율적이고 매력적인 학습공간으로서 체계적인 진단과 훈련을 통해서 초등학생들의 감정인식 역량을 향상시킬 수 있을 것이다.

  • PDF