• 제목/요약/키워드: Expression Recognition

검색결과 712건 처리시간 0.028초

인스톨레이션 공간에서 나타나는 하이퍼매개적 특성 (A Study on Characteristics of Hypermediacy Revealed in Installation Space)

  • 이상준;이찬
    • 한국실내디자인학회논문집
    • /
    • 제23권5호
    • /
    • pp.41-50
    • /
    • 2014
  • In relation to spatial expression, the remediation theory of Jay David Bolter & Richard Grusin shows a sufficient possibility of providing extended idea and experience through the space of critical representation. The remediation theory discussed in the scope of new media says about the existence method and the development process of media through immersion into media and awakening, and one attribute of remediation which aims at the extension of another realistic experience and recognition through various media, contains common denominators which display diversity and complexity of installation space, and use the audience as expression elements. Therefore, this study aims to apply the remediation theory in order to interpret space using more diverse and multisensory expression methods. For achieving this purpose, this study found the connection among characteristics of hypermediacy which is an axis of installation and remediation theory, and analyzed diverse cases regarding installation space and characteristics of hypermediacy, depending on external aspects of form and expression and internal aspects of experience and cognition. The method of hypermediation expression in installation space converts the recognition about the basic custom of new experience, space and representation. This means that the logic of remediation could approach space by leading to more extended form and recognition. In conclusion, the characteristics of space and the possibility of extended expression revealed in the relationship between installation space and hypermediacy logic would provide another developmental significance for research on space design.

한국어 기반 음성 인식에서 사투리 표현에 관한 연구 (A Study on Dialect Expression in Korean-Based Speech Recognition)

  • 이신협
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.333-335
    • /
    • 2022
  • 음성인식 처리기술의 발전은 STT, TTS 기술과 함께 각종 동영상, 스트리밍 서비스에서 적용되어 사용되고 있다. 그러나 실제 대화내용의 음성인식은 사투리 사용과 불용어, 감탄사, 유사어의 중복 등으로 명료한 문어체적 표현에 장벽이 높은 편이다. 본 연구에서는 음성인식에 모호한 사투리에 대해 범주별 사투리 중요 단어 사전 처리 방식과 사투리 운율을 음성 인식 네트워크 모델 속성으로 적용한 음성인식기술을 제안한다.

  • PDF

사용자의 성향 기반의 얼굴 표정을 통한 감정 인식률 향상을 위한 연구 (A study on the enhancement of emotion recognition through facial expression detection in user's tendency)

  • 이종식;신동희
    • 감성과학
    • /
    • 제17권1호
    • /
    • pp.53-62
    • /
    • 2014
  • 인간의 감정을 인식하는 기술은 많은 응용분야가 있음에도 불구하고 감정 인식의 어려움으로 인해 쉽게 해결되지 않는 문제로 남아 있다. 인간의 감정 은 크게 영상과 음성을 이용하여 인식이 가능하다. 감정 인식 기술은 영상을 기반으로 하는 방법과 음성을 이용하는 방법 그리고 두 가지를 모두 이용하는 방법으로 많은 연구가 진행 중에 있다. 이 중에 특히 인간의 감정을 가장 보편적으로 표현되는 방식이 얼굴 영상을 이용한 감정 인식 기법에 대한 연구가 활발히 진행 중이다. 그러나 지금까지 사용자의 환경과 이용자 적응에 따라 많은 차이와 오류를 접하게 된다. 본 논문에서는 감정인식률을 향상시키기 위해서는 이용자의 내면적 성향을 이해하고 분석하여 이에 따라 적절한 감정인식의 정확도에 도움을 주어서 감정인식률을 향상 시키는 메카니즘을 제안하였으며 본 연구는 이러한 이용자의 내면적 성향을 분석하여 감정 인식 시스템에 적용함으로 얼굴 표정에 따른 감정인식에 대한 오류를 줄이고 향상 시킬 수 있다. 특히 얼굴표정 미약한 이용자와 감정표현에 인색한 이용자에게 좀 더 향상된 감정인식률을 제공 할 수 있는 방법을 제안하였다.

고객만족도 피드백을 위한 효율적인 얼굴감정 인식시스템에 대한 연구 (A Study on Efficient Facial Expression Recognition System for Customer Satisfaction Feedback)

  • 강민식
    • 융합보안논문지
    • /
    • 제12권4호
    • /
    • pp.41-47
    • /
    • 2012
  • B2C(Business to Customer) 산업에 있어 효율적인 성과관리를 위해서는 고객이 원하는 서비스 요소를 추론하여 고객이 원하는 서비스를 제공하고 그 결과를 평가하여 지속적으로 서비스품질 및 성과를 향상 할 수 있도록 해야 한다. 그것을 위한 중요한 요소는 고객 만족도의 정확한 피드백인데 현재 국내에는 고객의 만족도 측정에 대한 정량적이고 표준화된 시스템이 열악한 상황이다. 최근 얼굴표정 및 생체데이터를 감지하여 사람의 감정을 인식하는 휴대폰 및 관련서비스 기술에 관한 연구가 증가하고 있다. 얼굴에서의 감정인식은 현재 연구되어지는 여러 가지 감정인식 중에서 효율적이고 자연스러운 휴먼 인터페이스로 기대되고 있다. 본 연구에서는 효율적인 얼굴감정 인식에 대한 분석을 하고 고객의 얼굴감정인식을 이용하여 고객의 만족도를 추론할 수 있는 고객피드백시스템을 제안한다.

MobileNet과 TensorFlow.js를 활용한 전이 학습 기반 실시간 얼굴 표정 인식 모델 개발 (Development of a Ream-time Facial Expression Recognition Model using Transfer Learning with MobileNet and TensorFlow.js)

  • 차주호
    • 디지털산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.245-251
    • /
    • 2023
  • Facial expression recognition plays a significant role in understanding human emotional states. With the advancement of AI and computer vision technologies, extensive research has been conducted in various fields, including improving customer service, medical diagnosis, and assessing learners' understanding in education. In this study, we develop a model that can infer emotions in real-time from a webcam using transfer learning with TensorFlow.js and MobileNet. While existing studies focus on achieving high accuracy using deep learning models, these models often require substantial resources due to their complex structure and computational demands. Consequently, there is a growing interest in developing lightweight deep learning models and transfer learning methods for restricted environments such as web browsers and edge devices. By employing MobileNet as the base model and performing transfer learning, our study develops a deep learning transfer model utilizing JavaScript-based TensorFlow.js, which can predict emotions in real-time using facial input from a webcam. This transfer model provides a foundation for implementing facial expression recognition in resource-constrained environments such as web and mobile applications, enabling its application in various industries.

얼굴 표정 인식 기술의 동향과 향후 방향: 텍스트 마이닝 분석을 중심으로 (Trends and Future Directions in Facial Expression Recognition Technology: A Text Mining Analysis Approach)

  • 전인수;이병천;임수빈;문지훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.748-750
    • /
    • 2023
  • Facial expression recognition technology's rapid growth and development have garnered significant attention in recent years. This technology holds immense potential for various applications, making it crucial to stay up-to-date with the latest trends and advancements. Simultaneously, it is essential to identify and address the challenges that impede the technology's progress. Motivated by these factors, this study aims to understand the latest trends, future directions, and challenges in facial expression recognition technology by utilizing text mining to analyze papers published between 2020 and 2023. Our research focuses on discerning which aspects of these papers provide valuable insights into the field's recent developments and issues. By doing so, we aim to present the information in an accessible and engaging manner for readers, enabling them to understand the current state and future potential of facial expression recognition technology. Ultimately, our study seeks to contribute to the ongoing dialogue and facilitate further advancements in this rapidly evolving field.

Emotion Recognition using Facial Thermal Images

  • Eom, Jin-Sup;Sohn, Jin-Hun
    • 대한인간공학회지
    • /
    • 제31권3호
    • /
    • pp.427-435
    • /
    • 2012
  • The aim of this study is to investigate facial temperature changes induced by facial expression and emotional state in order to recognize a persons emotion using facial thermal images. Background: Facial thermal images have two advantages compared to visual images. Firstly, facial temperature measured by thermal camera does not depend on skin color, darkness, and lighting condition. Secondly, facial thermal images are changed not only by facial expression but also emotional state. To our knowledge, there is no study to concurrently investigate these two sources of facial temperature changes. Method: 231 students participated in the experiment. Four kinds of stimuli inducing anger, fear, boredom, and neutral were presented to participants and the facial temperatures were measured by an infrared camera. Each stimulus consisted of baseline and emotion period. Baseline period lasted during 1min and emotion period 1~3min. In the data analysis, the temperature differences between the baseline and emotion state were analyzed. Eyes, mouth, and glabella were selected for facial expression features, and forehead, nose, cheeks were selected for emotional state features. Results: The temperatures of eyes, mouth, glanella, forehead, and nose area were significantly decreased during the emotional experience and the changes were significantly different by the kind of emotion. The result of linear discriminant analysis for emotion recognition showed that the correct classification percentage in four emotions was 62.7% when using both facial expression features and emotional state features. The accuracy was slightly but significantly decreased at 56.7% when using only facial expression features, and the accuracy was 40.2% when using only emotional state features. Conclusion: Facial expression features are essential in emotion recognition, but emotion state features are also important to classify the emotion. Application: The results of this study can be applied to human-computer interaction system in the work places or the automobiles.

Active Shape Model을 이용한 외형기반 얼굴표정인식에 관한 연구 (A Study on Appearance-Based Facial Expression Recognition Using Active Shape Model)

  • 김동주;신정훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.43-50
    • /
    • 2016
  • 본 논문에서는 ASM(Active Shape Model) 특징점(Landmark)을 이용하여 정밀한 얼굴영역을 획득하고, 외형기반 접근법으로 표정을 인식하는 방법에 대하여 제안한다. 외형기반 표정인식은 EHMM(Embedded Hidden Markov Model) 및 이진패턴 히스토그램 특징과 SVM(Support Vector Machine)을 사용하는 알고리즘으로 구성되며, 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었다. 더불어, 성능비교는 기존의 눈 거리 기반의 얼굴 정규화 방법과 비교를 통하여 수행되었고, 또한 ASM 전체 특징점 및 변형된 특징을 SVM으로 인식하는 기하학적 표정인식 방법론과 성능비교를 수행하였다. 실험 결과, 제안 방법은 거리기반 얼굴정규화 영상을 사용한 방법보다 CK 데이터베이스 및 JAFFE 데이터베이스 경우, 최대 6.39%와 7.98%의 성능향상을 보였다. 또한, 제안 방법은 기하학적 특징점을 사용한 방법보다 높은 인식 성능을 보였으며, 이로부터 제안하는 표정인식 방법의 효용성을 확인하였다.

광류와 표정 HMM에 의한 동영상으로부터의 실시간 얼굴표정 인식 (Realtime Facial Expression Recognition from Video Sequences Using Optical Flow and Expression HMM)

  • 전준철;신기한
    • 인터넷정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.55-70
    • /
    • 2009
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 그러한 측면에서 얼굴표정인식에 의한 인간의 심리적 상태를 추론하는 기술은 중요한 이슈이다. 본 연구에서는 감성인식 HMM 모델과 광류에 기반한 얼굴 움직임 추적 방법을 이용하여 동영상으로부터 얼굴표정을 인식하는 새로운 방법을 제시하였다. 특히, 기존의 감성상태 변환을 설명하는 HMM 모델은 특정 표정상태 간의 전환 시 항상 중립 상태를 거치도록 설계되어 있다. 그러나 본 연구에서는 기존의 표정상태 전환 모델에 중간상태를 거치는 과정 없이 특정 표정 상태간의 변환이 가능한 확장된 HMM 모델을 제시한다. 동영상으로부터 얼굴의 특성정보를 추출하기 위하여 탬플릿 매칭과 광류방법을 적용하였다. 광류에 의해 추적된 얼굴의 표정특성 정보는 얼굴표정인식을 위한 HMM의 매개변수 정보로 사용된다. 실험을 통하여 제안된 얼굴표정인식 방법이 실시간 얼굴 표정인식에 효과적임을 입증하였다.

  • PDF

Boosted 국부 이진 패턴을 적용한 얼굴 표정 인식에 관한 연구 (A Study on Facial Expression Recognition using Boosted Local Binary Pattern)

  • 원철호
    • 한국멀티미디어학회논문지
    • /
    • 제16권12호
    • /
    • pp.1357-1367
    • /
    • 2013
  • 최근 얼굴 표정 인식에 있어 영상 기반의 방법의 하나로서 ULBP 블록 히스토그램 피쳐와 SVM을 분류기로 사용한 연구가 수행되었다. Ojala 등에 의해 소개된 LBP는 높은 식별력과 조명의 변화에 대한 내구성과 간단한 연산 때문에 영상 인식 분야에 많이 사용되고 있다. 본 논문에서는 ULBP 블록 히스토그램을 계산함에 있어 분할 영역의 이동, 크기 변화에 더하여 미세한 특징 요소를 표현할 수 있도록 $LBP_{8,2}$$LBP_{8,1}$를 결합하였다. $LBP_{8,1}$ 660개, $LBP_{8,2}$ 550개의 분할 창으로부터 1210개의 ULBP 히스토그램 피쳐를 추출하고 이로부터 AdaBoost를 이용하여 50개의 약 분류기를 생성하였다. $LBP_{8,1}$$LBP_{8,2}$가 결합된 하이브리드 형태의 ULBP 블록 히스토그램 피쳐와 SVM 분류기를 이용함으로써 표정 인식률을 향상시킬 수 있었으며 다양한 실험을 통하여 이를 확인하였다. 본 논문에서 제안한 하이브리드 Boosted ULBP 히스토그램의 경우에 표정의 인식률이 96.3%로 가장 높은 결과를 보였으며 제안한 방법의 우수성을 확인하였다.