• Title/Summary/Keyword: 감정 음성

Search Result 235, Processing Time 0.027 seconds

Development of Perfume-Injection Module of Robotic Cellular Phone (로보틱셀폰(RCP)의 감성발향 모듈의 개발)

  • 최재일;임찬영;김승우
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.770-773
    • /
    • 2004
  • IT(Information Technology)분야의 발전과 함께 RT(Robot Technology)분야도 21세기의 유망한 첨단기술로 손꼽히고 있다. 현재의 로봇은 그동안 주류를 이루던 산업용 로봇과는 달리 소프트컴퓨팅, 인간친화 인터페이스, 상호작용기술, 음성인식, 물체인식, 사용자 의도파악 등 갖가지 최첨단 기술들이 요구되는 퍼스널 로봇이 각광을 받고 있으며, 특히 오락용, 교육용 로봇들로 대표되는 엔터테인먼트 로봇(Entertainment Robot)분야가 요즘 국내·외에서 활발히 연구되고 있는 실정이다. 엔터테인먼트 로봇은 정형화된 작업만을 하는 것이 아니라 다양한 환경에서 여러 가지 작업을 해야만 한다. 따라서, 장난감 로봇처럼 인간과의 감정대화가 가능한 지능 시스템을 갖춰야만 한다. 그러므로 본 논문에서는 IT분야와 RT분야의 접목으로 시너지 효과를 크게 얻을 수 있는 새로운 기술 개념인 RCP(Robotic Cellular Phone)에 대한 개념을 정의하고, RCP의 기능성 모듈 중 하나인 감성발향 모듈에 대한 기본적인 이론과 실험적 결과를 통하여 로보틱 셀폰의 감성발향 모듈의 우수성을 확인한다.

  • PDF

Development of Emotional-Vibration Module of Robotic Cellular Phone (로보틱셀폰(RCP)의 감성진동 모듈의 개발)

  • 최재일;임찬영;김승우
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.766-769
    • /
    • 2004
  • IT(Information Technology)분야의 발전과 함께 RT(Robot Technology)분야도 21fl기의 유망한 첨단기술로 손꼽히고 있다. 현재의 로봇은 그동안 주류를 이루던 산업용 로봇과는 달리 소프트컴퓨팅, 인간친화 인터페이스, 상호작용기술, 음성인식, 물체인식, 사용자 의도파악 등 갖가지 최첨단 기술들이 요구되는 퍼스널 로봇이 각광을 받고 있으며, 특히 오락용, 교육용 로봇들로 대표되는 엔터테인먼트 로봇(Entertainment Robot)분야가 요즘 국내·외에서 활발히 연구되고 있는 실정이다. 엔터테인먼트 로봇은 정형화된 작업만을 하는 것이 아니라 다양한 환경에서 여러 가지 작업을 해야만 한다. 따라서, 장난감 로봇처럼 인간과의 감정대화가 가능한 지능 시스템을 갖춰야만 한다. 그러므로 본 논문에서는 If분야와 RT분야의 접목으로 시너지 효과를 크게 얻을 수 있는 새로운 기술 개념인 RCP(Robotic C태ular Phone)에 대한 개녕을 정의하고, RCP의 기능성 모듈 중 하나인 감성진동 모들에 대한 기본적인 이론과 실험적 결과를 롱하여 로보틱 셀폰의 감성진동 모듈의 우수성을 확인한다.

  • PDF

Video Synthesis Method for Virtual Avatar Using FACS based GAN (FACS 기반 GAN 기술을 이용한 가상 영상 아바타 합성 기술)

  • Kim, Geonhyeong;Park, Suhyun;Lee, Sang Ho
    • Annual Conference of KIPS
    • /
    • 2021.05a
    • /
    • pp.340-342
    • /
    • 2021
  • 흔히 DeepFake로 불리는 GAN 기술은 소스 영상과 타겟 이미지를 합성하여 타겟 이미지 내의 사람이 소스 영상에서 나타나도록 합성하는 기술이다. 이러한 GAN 기반 영상 합성 기술은 2018년을 기점으로 급격한 성장세를 보이며 다양한 산업에 접목되어지고 있으나 학습 모델을 얻는 데 걸리는 시간이 너무 오래 소요되고, 감정 표현을 인지하는 데 어려움이 있었다. 본 논문에서는 상기 두가지 문제를 해결하기 위해 Facial Action Coding System(FACS) 및 음성 합성 기술[4]을 적용한 가상 아바타 생성 방법에 대해 제안하고자 한다.

VR Companion Animal Communion System for Pet Loss Syndrome (펫로스 증후군을 위한 VR 반려동물 교감 시스템)

  • Choi, Hyeong-Mun;Moon, Mikyeong;Lee, Gun-ho
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.563-564
    • /
    • 2021
  • 반려동물 보유 가구 수가 증가하면서 반려동물의 상실로 인한 펫로스 증후군을 호소하는 반려인 또한 증가하고 있다. 펫로스 증후군을 치유하기 위해 반려동물을 가상으로라도 만나서 평소에 하던 말과 행동을 할 수 있도록 하여 차츰 이별을 할 수 있도록 할 필요가 있다. 본 논문에서는 VR을 통하여 반려인이 3D로 모델링 된 반려동물과 직접 교감할 수 있는 시스템에 대한 연구 내용을 기술한다. 이 시스템을 통해 떠나보낸 반려동물과 평소와 같은 말과 행동을 할 수 있도록 도와주어 감정의 정화를 서서히 할 수 있도록 해준다.

  • PDF

Speech Emotion Recognition Based on Deep Networks: A Review (딥네트워크 기반 음성 감정인식 기술 동향)

  • Mustaqeem, Mustaqeem;Kwon, Soonil
    • Annual Conference of KIPS
    • /
    • 2021.05a
    • /
    • pp.331-334
    • /
    • 2021
  • In the latest eras, there has been a significant amount of development and research is done on the usage of Deep Learning (DL) for speech emotion recognition (SER) based on Convolutional Neural Network (CNN). These techniques are usually focused on utilizing CNN for an application associated with emotion recognition. Moreover, numerous mechanisms are deliberated that is based on deep learning, meanwhile, it's important in the SER-based human-computer interaction (HCI) applications. Associating with other methods, the methods created by DL are presenting quite motivating results in many fields including automatic speech recognition. Hence, it appeals to a lot of studies and investigations. In this article, a review with evaluations is illustrated on the improvements that happened in the SER domain though likewise arguing the existing studies that are existence SER based on DL and CNN methods.

Audiobook Text Shaping for Synesthesia Voice Training - Focusing on Paralanguages - (오디오북 텍스트 형상화를 위한 공감각적 음성 훈련 연구 - 유사언어를 활용하여 -)

  • Cho, Ye-Shin;Choi, Jae-Oh
    • Journal of Korea Entertainment Industry Association
    • /
    • v.13 no.8
    • /
    • pp.167-180
    • /
    • 2019
  • The purpose of this study is to find out the results of synesthesia speech training using similar language for shaping audiobook text. The audiobook text for training uses Tolstoy's work, and uses similar language of tone, tone, pose, speed, intonation, accent, and expression of emotions. The participants who ten visually impaired trainee in H library were selected for qualitative research. Based on the research questions raised in this study, the results are as follows. First, synesthesia training, in which more than two senses of the five senses work simultaneously in voice training for audio book text shaping, produced the result by visualizing the original purpose, meaning, and background of the text. Second, the use of similar language was helpful in the whole process of expressing the meaning of sentence and dialogue for audiobook text shaping. In addition, although there were some differences among the study subjects, they found commonalities that considered tone, pose, and intonation important. Third, the visually impaired have advanced sensory aspects and memory, which resulted in rapid acquisition of metabolism and acceptance of transmission during training. In addition, the teacher's friendly behavior was a very important key mediator in the training process.

A Study on Effective Facial Expression of 3D Character through Variation of Emotions (Model using Facial Anatomy) (감정변화에 따른 3D캐릭터의 표정연출에 관한 연구 (해부학적 구조 중심으로))

  • Kim, Ji-Ae
    • Journal of Korea Multimedia Society
    • /
    • v.9 no.7
    • /
    • pp.894-903
    • /
    • 2006
  • Rapid technology growth of hardware have brought about development and expansion of various digital motion pictured information including 3-Dimension. 3D digital techniques can be used to be diversity in Animation, Virtual-Reality, Movie, Advertisement, Game and so on. 3D characters in digital motion picture take charge of the core as to communicate emotions and information to users through sounds, facial expression and characteristic motions. Concerns about 3D motion and facial expression is getting higher with extension of frequency in use and range about 3D character design. In this study, the facial expression can be used as a effective method about implicit emotions will be studied and research 3D character's facial expressions and muscles movement which are based on human anatomy and then try to find effective method of facial expression. Finally, also, study the difference and distinguishing between 2D and 3D character through the preceding study what I have researched before.

  • PDF

A System Prototype for Remote Haptic Communication (원격 촉감 커뮤니케이션을 위한 시스템 프로토타입)

  • Cha, Jong-Eun;Lee, Jun-Hun;Ryu, Je-Ha
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.238-243
    • /
    • 2006
  • 최근에는 통신기술과 인터넷의 발달로 원격의 사람과 전화, 이메일, 메신저 또는 화상회의 시스템 등을 통해서 쉽게 의사소통 할 수 있다. 이 시스템들은 주로 음성, 그림, 동영상 또는 문자 기반의 시청각 정보를 서로 주고 받으며 자신의 의사 및 감정을 전달하는 통로를 제공한다. 그러나 일상 생활에서 시청각 정보 외에 촉감 정보도 서로 의사소통 하는데 중요한 역할을 한다. 악수, 포옹 등의 촉감 상호작용은 사람 사이에서 친근감을 표시하는데 가장 직접적인 방법으로 자신의 감정을 전달하거나 느낌을 표현하는데 사용된다. 그럼에도 불구하고 촉감 상호작용을 가능케 하는 의사소통 시스템의 연구는 아직 폭넓게 진행되고 있지 않다. 본 논문에서는 일상에서와 같이 원격에서도 상대를 바라 볼 수 있고 자연스럽게 접촉할 수 있는 원격 촉감 커뮤니케이션 시스템을 제안한다. 이 시스템에서는 로컬 사용자가 손가락으로 상대의 몸 특정 부위를 만질 수 있고 서로 그 촉감을 실시간으로 느낄 수 있다. 이 시스템은 크게 AR 시스템, 그래픽 시스템, 햅틱 시스템, 택타일 시스템의 부시스템들로 나눌 수 있다. AR 시스템에서는 몸의 한 부위에 사각형의 AR 마커를 부착한 원격 사용자를 웹카메라로 촬영하고 ARToolKit 을 사용하여 마커의 위치를 측정한다. AR 마커의 바로 밑에는 택타일 장치가 장착되어 있으며 이 부위를 통하여 원격의 사용자는 로컬사용자가 자신의 팔을 만지는 느낌을 받게된다. 그래픽 시스템은 로컬사용자에게 촬영된 원격 사용자와 측정된 마커의 위치가 대표하는 원격 사용자의 가상 피부, 그리고 자신의 가상 손가락을 보여준다. 햅틱 시스템에서는 촉감 장치를 사용하여 로컬 사용자의 손가락 위치를 구하여 원격 사용자의 가상 피부와 접촉했을 때 그 충돌을 감지하고 접촉력을 계산하여 촉감 장치에 반영함으로써 그 접촉력을 느낄 수 있도록 한다. 택타일 시스템에서는 원격 사용자의 AR 마커 밑에 장착된 배열 타입의 진동 촉감 장치에 접촉 정보를 주어 로컬 사용자와 접촉 했을 때 접촉 부위에 진동을 줌으로써 촉감을 느끼도록 한다.

  • PDF

Building Living Lab for Acquiring Behavioral Data for Early Screening of Developmental Disorders

  • Kim, Jung-Jun;Kwon, Yong-Seop;Kim, Min-Gyu;Kim, Eun-Soo;Kim, Kyung-Ho;Sohn, Dong-Seop
    • Journal of the Korea Society of Computer and Information
    • /
    • v.25 no.8
    • /
    • pp.47-54
    • /
    • 2020
  • Developmental disorders are impairments of brain and/or central nervous system and refer to a disorder of brain function that affects languages, communication skills, perception, sociality and so on. In diagnosis of developmental disorders, behavioral response such as expressing emotions in proper situation is one of observable indicators that tells whether or not individual has the disorders. However, diagnosis by observation can allow subjective evaluation that leads erroneous conclusion. This research presents the technological environment and data acquisition system for AI based screening of autism disorder. The environment was built considering activities for two screening protocols, namely Autism Diagnostic Observation Schedule (ADOS) and Behavior Development Screening for Toddler (BeDevel). The activities between therapist and baby during the screening are fully recorded. The proposed software in this research was designed to support recording, monitoring and data tagging for learning AI algorithms.

A Machine Learning Approach for Stress Status Identification of Early Childhood by Using Bio-Signals (생체신호를 활용한 학습기반 영유아 스트레스 상태 식별 모델 연구)

  • Jeon, Yu-Mi;Han, Tae Seong;Kim, Kwanho
    • The Journal of Society for e-Business Studies
    • /
    • v.22 no.2
    • /
    • pp.1-18
    • /
    • 2017
  • Recently, identification of the extremely stressed condition of children is an essential skill for real-time recognition of a dangerous situation because incidents of children have been dramatically increased. In this paper, therefore, we present a model based on machine learning techniques for stress status identification of a child by using bio-signals such as voice and heart rate that are major factors for presenting a child's emotion. In addition, a smart band for collecting such bio-signals and a mobile application for monitoring child's stress status are also suggested. Specifically, the proposed method utilizes stress patterns of children that are obtained in advance for the purpose of training stress status identification model. Then, the model is used to predict the current stress status for a child and is designed based on conventional machine learning algorithms. The experiment results conducted by using a real-world dataset showed that the possibility of automated detection of a child's stress status with a satisfactory level of accuracy. Furthermore, the research results are expected to be used for preventing child's dangerous situations.