• 제목/요약/키워드: express emotion

검색결과 242건 처리시간 0.027초

건강정보검색에서 노인이 경험하는 어려움과 감정변화 (Exploring Older Adults' Experienced Barriers and Emotional Changes in Seeking Health Information)

  • 나경식;정용선
    • 한국도서관정보학회지
    • /
    • 제48권1호
    • /
    • pp.227-243
    • /
    • 2017
  • 본 연구는 노인이 건강정보검색에서 어떠한 어려움과 감정변화를 경험하는지를 살펴보고자 하였다. 이를 위해, 총 10명의 노인들을 대상으로 개별면담을 실시하였고, 그 결과 참여한 노인들이 경험하는 어려움에는 크게 인지적 어려움과 신체적 어려움이 있는 것으로 나타났다. 인지적인 어려움에는 첫째, 어디에서 어떻게 건강정보를 찾는지의 어려움을 나타내었고, 둘째, 정보검색도구의 이용의 어려움을 나타내었고, 셋째, 신뢰할 수 있는 정확한 정보선택의 어려움을 나타내었다. 참여한 노인들의 신체적인 어려움에 대해서는 눈, 손, 다리, 몸 전체에 어려움이 있다고 나타내고 있었다. 감정변화에 대해서는 정보검색 초기에는 '궁금하다'와 '감정이 없었다'가 중간단계에는 여러 감정상태를 보이다가 정보를 찾은 후에는 긍정적인 감정표현과 건강에 대한 경각심이나 두려움이 한편으로 생기기도 하였다. 이러한 연구결과를 도서관의 관점에서 분석하고 논의한 후, 노인들을 위한 도서관의 역할을 제언하였다.

감성 메타데이터를 활용한 지능형 캐릭터 시스템 (Intelligent Character System using Emotion Metadata)

  • 한종성;이완복;경병표;이동열;유석호;이경재
    • 한국콘텐츠학회논문지
    • /
    • 제9권3호
    • /
    • pp.99-107
    • /
    • 2009
  • 최근 IT와 네트워크 기술이 발전하고, 유무선 네트워킹을 통한 개인 간 교류가 매우 활성화됨에 따라, 개인의 개성과 감성을 잘 표현할 수 있는 시스템이 각광 받고 있다. 특히 휴대인터넷이 발달하면서 모바일을 중심으로 개인화된 시스템에 대한 요구가 증가하고 있다. 이에 발맞추어 사용자의 감성을 표현하는 지능형 캐릭터시스템을 감성인자 메타데이터 검색방법으로 구현하였다. 이 검색방법은 감성인자 근접도 측정을 통해 다양한 감성표현을 가능하게 함으로써 텍스트 기반의 기존 검색방식을 보완하고 개인의 감성을 표현하는 툴로 유용하게 사용될 수 있으며 지능형 캐릭터 시스템은 모바일 단말기에 탑재되어 다양한 서비스에 활용될 수 있을 것이다.

사회연결망상의 우위와 감성 표현과의 관계 분석: 알츠하이머 웹포럼의 적용 (The Analysis on Users' Centrality in the Social Network and their Sentiment : Applying to Medical Web Forum on Alzheimer's Disease)

  • 이민정;우지영
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권6호
    • /
    • pp.127-140
    • /
    • 2015
  • 본 연구는 알츠하이머에 대한 의료 웹포럼 컨텐츠의 감성 분석과 사회연결망 분석을 연계하여 감성을 표현하는 정도와 사회연결망상의 영향력 사이의 관계를 살펴보았다. 최근 사회가 고령화가 됨에 따라 치매환자는 증가하고 있는데 이에 환자뿐만 아니라 환자 보호자들은 질병에 관한 정보뿐만 아니라 위로를 얻기 위하여 의료 웹포럼을 이용하고 있다. 웹포럼상에서의 정보적/감성적 지지의 형태로 나타나는 사회연결망을 분석한 결과, 네트워크 중앙에 위치한 사용자의 감성표출이 다른 사용자의 감성 표출보다 높게 나타나는 것을 관찰하였다. 또한 긍정적 단어를 많이 사용하는 그룹이 부정적 단어를 많이 사용하는 그룹에 비해 연결중심성 및 보나시치중심성 값이 높게 나타난 것을 확인할 수 있었다. 본 연구는 웹포럼 상의 감성전달에 있어서 일반 사용자에게 큰 영향력을 줄 수 있는 오피니언 리더를 도출하고, 알츠하이머 환자의 우울증을 완화할 수 있는 정책의 일환으로 활용할 수 있을 것이다.

한국무용 감기 동작 시 표현하고자 하는 감정에 따른 운동역학적 차이 (Kinetic Analysis of Gam-ki in the Korean Traditional Dance during Expressing Different Emotions)

  • 조남규;오성근
    • 한국운동역학회지
    • /
    • 제25권2호
    • /
    • pp.207-218
    • /
    • 2015
  • Objective : The purpose of this study was to investigate the characteristics of Gam-ki (double-arm winding) depending on the emotion being expressed. Gam-ki is one of the basic movements of Korean traditional dance. Method : We selected three Korean traditional dancers who belong to National Dance Company of Korea. They were asked to express four different emotions (anger, joy, sadness, and neutral) while performing Gam-ki. We analyzed elapsed time and time ratio, size of movement, ground reaction forces and ground impulses. Results : During Gam-ki the elapsed time for each phase as well as for one cycle was longest when "sadness" was expressed then followed by "neutral" and then "angry" and "joy." Except for the ankle in/eversion, the ROMs of the lower limb joints seem not to be an emotion-characteristic factor. The ROMs of the upper limb joints were largest when "anger" was expressed. Neck rotation is associated with expressing negative emotions ("angry" and "sadness"). For medial-lateral GRF "angry"> "joy" > "neutral" > "sadness" was in order. Therefore, it can be regarded as a factor indicating the activity of the emotion.

비언어적 감정표현을 위한 애니메이션 이모티콘의 제작방향 제시 (Design method of Animation Emoticons for Non-Verbal Expression of Emotion)

  • 안성혜;윤세진
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.200-204
    • /
    • 2006
  • 이모티콘은 현재 CMC 커뮤니케이션 상에서 감정표현을 나타내는 의사소통의 보조수단으로 사용되고 있다. 이모티콘은 텍스트 이모티콘에서 이미지 이모티콘, 애니메이션 이모티콘에 이르기까지 다양한 형태로 발전되어 왔다. 그러나 감정표현의 세분화된 분류가 미흡하여 기본감정만을 나타낼 수 있을 뿐 그 밖에 감정표현의 다양성을 가지고 있지 못하다. 따라서 다양한 감정표현이 가능한 이모티콘들을 편리하고, 간단하게 사용할 수 있도록 하는 모듈화 된 애니메이션 이모티콘 개발을 위해서는 감정들을 세분화하여 분류해줄 필요가 있다. 본 연구는 메신저상의 애니메이션 이모티콘을 중심으로 얼굴표정, 손동작, 상황설정에 따른 감정표현들을 분류하여 분석해보고, 애니메이션 이모티콘의 제작방향을 제시하고자 한다.

  • PDF

감정적 경험에 의존하는 정서 기억 메커니즘 (Emotional Memory Mechanism Depending on Emotional Experience)

  • 여지혜;함준석;고일주
    • 디지털산업정보학회논문지
    • /
    • 제5권4호
    • /
    • pp.169-177
    • /
    • 2009
  • In come cases, people differently respond on the same joke or thoughtless behavior - sometimes like it and laugh, another time feel annoyed or angry. This fact is explained that experiences which we had in the past are remembered by emotional memory, so they cause different responses. When people face similar situation or feel similar emotion, they evoke the emotion experienced in the past and the emotional memory affects current emotion. This paper suggested the mechanism of the emotional memory using SOM through the similarity between the emotional memory and SOM learning algorithm. It was assumed that the mechanism of the emotional memory has also the characteristics of association memory, long-term memory and short-term memory in its process of remembering emotional experience, which are known as the characteristics of the process of remembering factual experience. And then these characteristics were applied. The mechanism of the emotional memory designed like this was applied to toy hammer game and I measured the change in the power of toy hammer caused by differently responding on the same stimulus. The mechanism of the emotional memory suggest in above is expected to apply to the fields of game, robot engineering, because the mechanism can express various emotions on the same stimulus.

감성캐릭터의 감정표현 기술의 사례분석 (A Case Study of Emotion Expression Technologies for Emotional Characters)

  • 안성혜;백선욱;성민영;이준하
    • 한국콘텐츠학회논문지
    • /
    • 제9권9호
    • /
    • pp.125-133
    • /
    • 2009
  • 오늘날 디지털 기반 커뮤니케이션 환경 속의 사용자들은 상호작용이 가능한 커뮤니케이션을 원하게 되면서, 사용자 중심의 감정표현 도구를 개발할 필요성이 대두되고 있다. 본 연구는 실시간으로 변화하는 개인화된 감정표현이 가능한 감성캐릭터를 개발하기 위한 목적을 가진 기초연구이다. 이를 위해 현재 얼굴표정을 중심으로 감정을 표현하는 기술이 어떻게 구현되고 있는지 국내외 연구동향 및 감성캐릭터를 사용한 다양한 서비스 사례분석을 통해 향후 감성캐릭터의 개발 방향을 제시해보고자 한다.

Voice Frequency Synthesis using VAW-GAN based Amplitude Scaling for Emotion Transformation

  • Kwon, Hye-Jeong;Kim, Min-Jeong;Baek, Ji-Won;Chung, Kyungyong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.713-725
    • /
    • 2022
  • Mostly, artificial intelligence does not show any definite change in emotions. For this reason, it is hard to demonstrate empathy in communication with humans. If frequency modification is applied to neutral emotions, or if a different emotional frequency is added to them, it is possible to develop artificial intelligence with emotions. This study proposes the emotion conversion using the Generative Adversarial Network (GAN) based voice frequency synthesis. The proposed method extracts a frequency from speech data of twenty-four actors and actresses. In other words, it extracts voice features of their different emotions, preserves linguistic features, and converts emotions only. After that, it generates a frequency in variational auto-encoding Wasserstein generative adversarial network (VAW-GAN) in order to make prosody and preserve linguistic information. That makes it possible to learn speech features in parallel. Finally, it corrects a frequency by employing Amplitude Scaling. With the use of the spectral conversion of logarithmic scale, it is converted into a frequency in consideration of human hearing features. Accordingly, the proposed technique provides the emotion conversion of speeches in order to express emotions in line with artificially generated voices or speeches.

친밀도, 공감도, 긍정도에 따른 얼굴 근육의 미세움직임 반응 차이 (Research on Micro-Movement Responses of Facial Muscles by Intimacy, Empathy, Valence)

  • 조지은;박상인;원명주;박민지;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제17권2호
    • /
    • pp.439-448
    • /
    • 2017
  • 얼굴 표정은 상호간의 소통에 있어 중요한 의미를 갖는다. 얼굴 근육의 움직임은 감성 정보를 제공하는데, 이는 사회적 관계를 향상하는 데 중요한 역할을 한다. 그러나 얼굴의 단순 움직임만으로는 복잡한 사회 감성을 인식하기에 정확하지 않다. 본 연구의 목적은 친밀도, 공감도, 긍정도와 같은 사회감성을 인식하기 위한 얼굴의 미세 움직임을 분석하는 것이다. 76명의 피험자를 대상으로 상기 사회감성을 유발하는 자극을 제시하였고 카메라를 사용하여 얼굴 표정을 측정하였다. 결론적으로 친밀함, 공감도, 긍정도의 사회 감성에서 얼굴의 미세움직임이 다르게 나타났다. 총 44개의 얼굴 근육 중 3개의 무의식 근육과 18개의 의식 근육의 움직임 양을 추출한 후, 고속푸리에변환(Fast Fourier Tranform, FFT)을 통하여 (Dominant) Frequency 대역을 확인하였다. 독립 t-검정 결과, 친밀도 상황에서는 코 주변과 볼 주변 근육, 공감도 상황에서는 입 주변 근육, 긍정도 상황에서는 턱 주변 근육에서 유의한 차이를 보였다. 이는 애니메이션의 가상 아바타 등 얼굴 표정의 새로운 표현요소를 제안하고 근육에 따른 사회감성 인식의 기초 연구로서 활용 가능할 것으로 사료 된다.

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.