• 제목/요약/키워드: emotional generation

검색결과 214건 처리시간 0.021초

병원간호사의 조직몰입 구조모형: 다중집단분석을 통한 세대별 조절 효과 (A structural equation model of organizational commitment by hospital nurses: The moderating effect of each generation through multi-group analysis)

  • 채정혜;김영숙
    • 한국간호교육학회지
    • /
    • 제28권3호
    • /
    • pp.305-316
    • /
    • 2022
  • Purpose: The purpose of this study was to construct a structural equation model of organizational commitment in hospital nurses based on a job demands-resources model and to confirm the moderating effect(s) according to the nurses' generation. Methods: The model was constructed of the exogenous variables of social support, emotional intelligence, emotional labor, and job conflict and the endogenous variables of burnout, job engagement, and organizational commitment. The participants were 560 hospital nurses working in 3 general hospitals. Data were collected from August 1 to September 30, 2021, and analyzed using SPSS Window 23.0 and IBM AMOS 23.0. Results: The strongest factor directly influencing hospital nurses' organizational commitment was social support. In a multiple group analysis, nurses' generation had a partial moderating effect. In a generation-specific analysis, the Z generation group was higher than the X and Y generation groups in the variables of emotional labor and burnout related to organizational commitment. Conclusion: Based on the findings of this study, to improve hospital nurses' organizational commitment, social support is needed as an important management strategy. At the organizational level, we need to develop ways to improve organizational commitment by reducing the emotional labor and burnout of Generation Z.

Stylized Image Generation based on Music-image Synesthesia Emotional Style Transfer using CNN Network

  • Xing, Baixi;Dou, Jian;Huang, Qing;Si, Huahao
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권4호
    • /
    • pp.1464-1485
    • /
    • 2021
  • Emotional style of multimedia art works are abstract content information. This study aims to explore emotional style transfer method and find the possible way of matching music with appropriate images in respect to emotional style. DCNNs (Deep Convolutional Neural Networks) can capture style and provide emotional style transfer iterative solution for affective image generation. Here, we learn the image emotion features via DCNNs and map the affective style on the other images. We set image emotion feature as the style target in this style transfer problem, and held experiments to handle affective image generation of eight emotion categories, including dignified, dreaming, sad, vigorous, soothing, exciting, joyous, and graceful. A user study was conducted to test the synesthesia emotional image style transfer result with ground truth user perception triggered by the music-image pairs' stimuli. The transferred affective image result for music-image emotional synesthesia perception was proved effective according to user study result.

다중 감정 에이전트를 이용한 자동 이야기 생성 시스템의 설계 (Multi Emotional Agent based Story Generation)

  • 김원일;김동현;홍유식;김승식;이창민
    • 전자공학회논문지CI
    • /
    • 제45권5호
    • /
    • pp.134-139
    • /
    • 2008
  • 이 논문에서 우리는 다중 감정 에이전트를 이용한 자동 이야기 생성 시스템을 제안한다. 다중 감정 에이전트는 서로 다른 감정 모델을 가진 에이전트를 말하며 이러한 에이전트가 서로 작용하여 새로운 상황을 생성해 나가는 것이다. 이러한 다중 에이전트는 기본적으로 아바타나 컴퓨터 게임에서 NPC 로 사용될 수 있다. 제안된 시스템에서 감정 에이전트는 성격이나 선호도가 서로 다른 등장인물로 사용되며, 이러한 시스템에 의해 생성된 이야기는 여러 성격을 가진 다중 에이전트의 사용으로 매우 현실적인 이야기 생성을 가능하게 한다.

Emotional-Controllable Talking Face Generation on Real-Time System

  • Van-Thien Phan;Hyung-Jeong Yang;Seung-Won Kim;Ji-Eun Shin;Soo-Hyung Kim
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 추계학술발표대회
    • /
    • pp.523-526
    • /
    • 2024
  • Recent progress in audio-driven talking face generation has focused on achieving more realistic and emotionally expressive lip movements, enhancing the quality of virtual avatars and animated characters for applications in entertainment, education, healthcare, and more. Despite these advances, challenges remain in creating natural and emotionally nuanced lip synchronization efficiently and accurately. To address these issues, we introduce a novel method for audio-driven lip-sync that offers precise control over emotional expressions, outperforming current techniques. Our method utilizes Conditional Deep Variational Autoencoder to produce lifelike lip movements that align seamlessly with audio inputs while dynamically adjusting for various emotional states. Experimental results highlight the advantages of our approach, showing significant improvements in emotional accuracy and the overall quality of the generated facial animations, video sequences on the Crema-D dataset [1].

감정 에이전트를 이용한 자동 이야기 생성 시스템의 설계 (Story Generation System using Emotional Agent)

  • 김원일;김동현;홍유식;이창민
    • 전자공학회논문지CI
    • /
    • 제45권5호
    • /
    • pp.140-147
    • /
    • 2008
  • 본 논문에서 우리는 감정 에이전트를 이용한 자동 이야기 생성 시스템을 제안한다. 제안한 시스템에서 감정 에이전트는 배우로서, 이야기 생성 시스템은 이러한 배우 및 감독 등을 이용하여 목표 지향적으로 이야기를 만들어 낸다. 자동 이야기 생성 시스템에서, 목표는 몇 가지의 상세한 계획으로 나뉘고 목표를 이루기 위한 계획을 수행함으로 이야기를 만들어 낸다. 이러한 이야기 생성 시스템은 감정 에이전트를 사용하기 때문에, 마치 감정을 소유한 인간이 연기를 하는 것처럼 효율적으로 이야기를 생성한다.

성격과 친밀도를 지닌 로봇의 일반화된 상황 입력에 기반한 감정 생성 (Robot's Emotion Generation Model based on Generalized Context Input Variables with Personality and Familiarity)

  • 권동수;박종찬;김영민;김형록;송현수
    • 대한임베디드공학회논문지
    • /
    • 제3권2호
    • /
    • pp.91-101
    • /
    • 2008
  • For a friendly interaction between human and robot, emotional interchange has recently been more important. So many researchers who are investigating the emotion generation model tried to naturalize the robot's emotional state and to improve the usability of the model for the designer of the robot. And also the various emotion generation of the robot is needed to increase the believability of the robot. So in this paper we used the hybrid emotion generation architecture, and defined the generalized context input of emotion generation model for the designer to easily implement it to the robot. And we developed the personality and loyalty model based on the psychology for various emotion generation. Robot's personality is implemented with the emotional stability from Big-Five, and loyalty is made of familiarity generation, expression, and learning procedure which are based on the human-human social relationship such as balance theory and social exchange theory. We verify this emotion generation model by implementing it to the 'user calling and scheduling' scenario.

  • PDF

Stem-ML에 기반한 한국어 억양 생성 (Korean Prosody Generation Based on Stem-ML)

  • 한영호;김형순
    • 대한음성학회지:말소리
    • /
    • 제54호
    • /
    • pp.45-61
    • /
    • 2005
  • In this paper, we present a method of generating intonation contour for Korean text-to-speech (TTS) system and a method of synthesizing emotional speech, both based on Soft template mark-up language (Stem-ML), a novel prosody generation model combining mark-up tags and pitch generation in one. The evaluation shows that the intonation contour generated by Stem-ML is better than that by our previous work. It is also found that Stem-ML is a useful tool for generating emotional speech, by controling limited number of tags. Large-size emotional speech database is crucial for more extensive evaluation.

  • PDF

SNS(social network service)활용에 대한 세대별 차이 연구 (A Study on the Difference between Young and Old Generation of SNS Behavior)

  • 황윤용;이기상;최수아
    • 한국산업정보학회논문지
    • /
    • 제20권1호
    • /
    • pp.63-77
    • /
    • 2015
  • SNS(social network service) 이용환경의 변화 및 증가에 따라 소비자들은 SNS를 일상의 일부로 받아들이고 있으며, 인터넷을 기반으로 상호소통하는 활동과 영향력은 지속적으로 확대되고 있다. 이에 따라 본 연구에서는 SNS를 통해서 형성될 수 있는 사회자본과 소비자들의 정서적 웰빙 수준의 차이점을 고찰하고자 한다. 또한 SNS 이용 이유 및 활용도는 소비자들마다 상이하게 나타날 수 있는 점을 고려하여 본 연구에서는 세대별 차이를 살펴보았다. 즉, SNS를 통해 나타날 수 있는 사회적 자본과 정서적 웰빙의 형태는 세대별로 어떠한 차이가 있는지를 검증하였다. 본 연구는 SNS사용 경험이 있는 소비자들을 대상으로 설문조사를 실시하였으며, 최종 83부의 표본을 활용하여 세대 간 사회자본 및 정서적웰빙의 효과를 살펴보았다. 연구결과, SNS를 통해 형성된 사회적 자본의 크기 및 유형에 따른 효과는 세대에 따라 차이가 있는 것으로 나타났다. 특히, 사회적 자본의 크기는 고령세대보다 젊은세대가 크게 나타났으며, 사회적 자본의 유형 중 연결적(bridging) 사회자본도 고령세대보다 젊은세대가 크게 나타났다. 또한 전반적인 정서적 웰빙은 세대에 따라 차이가 없었지만, 정서적 웰빙의 유형 중 부정적 웰빙은 고령세대가 젊은세대 보다 더욱 민감하게 나타나 세대별 차이를 보였다. 이러한 결과들을 토대로 SNS관리방향을 제시함으로써 세대별 세분화된 SNS활용방안을 제시하였다.

감정 표현 방법: 운율과 음질의 역할 (How to Express Emotion: Role of Prosody and Voice Quality Parameters)

  • 이상민;이호준
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권11호
    • /
    • pp.159-166
    • /
    • 2014
  • 본 논문에서는 감정을 통해 단어의 의미가 변화될 때 운율과 음질로 표현되는 음향 요소가 어떠한 역할을 하는지 분석한다. 이를 위해 6명의 발화자에 의해 5가지 감정 상태로 표현된 60개의 데이터를 이용하여 감정에 따른 운율과 음질의 변화를 살펴본다. 감정에 따른 운율과 음질의 변화를 찾기 위해 8개의 음향 요소를 분석하였으며, 각 감정 상태를 표현하는 주요한 요소를 판별 해석을 통해 통계적으로 분석한다. 그 결과 화남의 감정은 음의 세기 및 2차 포먼트 대역너비와 깊은 연관이 있음을 확인할 수 있었고, 기쁨의 감정은 2차와 3차 포먼트 값 및 음의 세기와 연관이 있으며, 슬픔은 음질 보다는 주로 음의 세기와 높낮이 정보에 영향을 받는 것을 확인할 수 있었으며, 공포는 음의 높낮이와 2차 포먼트 값 및 그 대역너비와 깊은 관계가 있음을 알 수 있었다. 이러한 결과는 감정 음성 인식 시스템뿐만 아니라, 감정 음성 합성 시스템에서도 적극 활용될 수 있을 것으로 예상된다.

사회정보처리 구성요소와 정서요인이 유아의 외현적 공격성과 관계적 공격성에 미치는 영향 (The Effects of Components of Social Information Processing and Emotional Factors on Preschoolers' Overt and Relational Aggression)

  • 최인숙;이강이
    • 아동학회지
    • /
    • 제31권6호
    • /
    • pp.15-34
    • /
    • 2010
  • The present study examines the sex differences in 5-year-old preschoolers' aggression according to the type of aggression (overt, relational) and the effect of components of social information processing (SIP : interpretation, goal clarification, response generation, response evaluation) and emotional factors (emotionality, emotional knowledge, emotion regulation) on their aggression. The subjects were 112 5-year-olds (56 boys, 56 girls) and their 11 teachers recruited from 9 day-care centers in Seoul and Kyung-Ki province. Each child's SIP and emotional knowledge were individually assessed with pictorial tasks and teachers reported on children's aggression, emotionality, and emotion regulation by questionnaires. Results indicated that there was a significant sex difference only in the preschoolers' overt aggression. Overtly aggressive response generation in SIP was the strongest predictor of preschoolers' overt aggression while anger of negative emotionality in emotional factors was the strongest predictor of preschoolers' relational aggression.