• 제목/요약/키워드: Facial expression factors

검색결과 50건 처리시간 0.024초

얼굴 표정 인식을 위한 방향성 LBP 특징과 분별 영역 학습 (Learning Directional LBP Features and Discriminative Feature Regions for Facial Expression Recognition)

  • 강현우;임길택;원철호
    • 한국멀티미디어학회논문지
    • /
    • 제20권5호
    • /
    • pp.748-757
    • /
    • 2017
  • In order to recognize the facial expressions, good features that can express the facial expressions are essential. It is also essential to find the characteristic areas where facial expressions appear discriminatively. In this study, we propose a directional LBP feature for facial expression recognition and a method of finding directional LBP operation and feature region for facial expression classification. The proposed directional LBP features to characterize facial fine micro-patterns are defined by LBP operation factors (direction and size of operation mask) and feature regions through AdaBoost learning. The facial expression classifier is implemented as a SVM classifier based on learned discriminant region and directional LBP operation factors. In order to verify the validity of the proposed method, facial expression recognition performance was measured in terms of accuracy, sensitivity, and specificity. Experimental results show that the proposed directional LBP and its learning method are useful for facial expression recognition.

소셜 로봇의 표정 커스터마이징 구현 및 분석 (The Implementation and Analysis of Facial Expression Customization for a Social Robot)

  • 이지연;박하은;;김병헌;이희승
    • 로봇학회논문지
    • /
    • 제18권2호
    • /
    • pp.203-215
    • /
    • 2023
  • Social robots, which are mainly used by individuals, emphasize the importance of human-robot relationships (HRR) more compared to other types of robots. Emotional expression in robots is one of the key factors that imbue HRR with value; emotions are mainly expressed through the face. However, because of cultural and preference differences, the desired robot facial expressions differ subtly depending on the user. It was expected that a robot facial expression customization tool may mitigate such difficulties and consequently improve HRR. To prove this, we created a robot facial expression customization tool and a prototype robot. We implemented a suitable emotion engine for generating robot facial expressions in a dynamic human-robot interaction setting. We conducted experiments and the users agreed that the availability of a customized version of the robot has a more positive effect on HRR than a predefined version of the robot. Moreover, we suggest recommendations for future improvements of the customization process of robot facial expression.

효과적인 얼굴 인식을 위한 특징 분포 및 적응적 인식기 (Feature Variance and Adaptive classifier for Efficient Face Recognition)

  • ;남미영;이필규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.34-37
    • /
    • 2007
  • Face recognition is still a challenging problem in pattern recognition field which is affected by different factors such as facial expression, illumination, pose etc. The facial feature such as eyes, nose, and mouth constitute a complete face. Mouth feature of face is under the undesirable effect of facial expression as many factors contribute the low performance. We proposed a new approach for face recognition under facial expression applying two cascaded classifiers to improve recognition rate. All facial expression images are treated by general purpose classifier at first stage. All rejected images (applying threshold) are used for adaptation using GA for improvement in recognition rate. We apply Gabor Wavelet as a general classifier and Gabor wavelet with Genetic Algorithm for adaptation under expression variance to solve this issue. We have designed, implemented and demonstrated our proposed approach addressing this issue. FERET face image dataset have been chosen for training and testing and we have achieved a very good success.

게임 캐릭터의 표면처리와 표현요소가 Uncanny Valley 현상에 미치는 영향에 관한 연구 (A study on the Effect of Surface Processing and Expression Elements of Game Characters on the Uncanny Valley Phenomenon)

  • 은석함;권만우;황미경
    • 한국멀티미디어학회논문지
    • /
    • 제25권7호
    • /
    • pp.964-972
    • /
    • 2022
  • The Uncanny Valley phenomenon has already been deemed as theoretical, and the characteristics of game character expression elements for the Uncanny Valley phenomenon were recognized through case analysis as well. By theoretical consideration and case studies, it was found out that the influential elements of the Uncanny Valley phenomenon can be classified as two primary factors: character surface treatment and facial expression animation. The prepared experimental materials and adjectives were measured to be Five-Point Likert Scale. The measured results were evaluated for both influence and comparative analysis through essential statistical analysis and Repeated Measuring ANOVA in SPSS. The conclusions which were drawn from this research are as follows: The surface treatment of characters did not substantially affect the Uncanny Valley phenomenon. Instead, character's expression animation had a significant impact on the Uncanny Valley phenomenon, which also led to another conclusion that the facial expression animation had an overall deeper impact on Uncanny Valley phenomenon compared with character's surface treatment. It was the unnatural facial expression animation that controlled all of the independent variables and also caused the Uncanny Valley phenomenon. In order for game characters to evade the Uncanny Valley phenomenon and enhance game immersion, the facial expression animation of the character must be done spontaneously.

e-Learning에서 나타날 수 있는 학습자의 얼굴 표정 분석 (Analyzing facial expression of a learner in e-Learning system)

  • 박정현;정상목;이완복;송기상
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 춘계 종합학술대회 논문집
    • /
    • pp.160-163
    • /
    • 2006
  • e-Learning에서 교수 시스템이 학습자의 학습에 대한 흥미도, 관심도 또는 각성상태를 실시간으로 측정하여 학습자의 정서 상태를 정확히 알아낼 수 있다면 학습자가 지루해 할 때 학습에 대한 흥미를 느낄 수 있는 요소를 피드백 해줄 수 있으며, 학습자가 학습내용을 이해하지 못하고 있거나 어려움을 느끼고 있는 경우 학습내용을 이해할 수 있는 도움내용을 처치하는 등의 적응적 교수 시스템(adaptive tutoring system)의 역할을 수행할 수 있다. 현재의 표정 인식 분야는 대부분 성인의 얼굴표정을 대상으로 하여 일상적인 감정인 분노, 혐오, 공포, 슬픔, 놀라움, 기쁨 등을 대상으로 하고 있다. 하지만 이러한 일상적인 표정들은 e-Learning 에서 나타나는 학습자의 감정이라고 보기 어렵다. 따라서 표정을 통하여 학습자의 감정 상태를 인식하도록 해주기 위해서는 e-Learning에서 학습자가 어떤 표정을 짓는지를 먼저 연구하여 다양한 표정사진을 충분히 취득한 후에 각 표정사진의 감정상태가 무엇인지를 밝혀주는 작업이 필요하다. 이에 본 연구는 표정 데이터베이스의 구축을 위한 선행 연구로 e-Learning에서 학습자가 나타내는 감정과 그 감정에 따른 표정이 어떻게 이루어져 있는지를 찾아내고 그 특징을 분석해보았다.

  • PDF

눈썹화장이 얼굴이미지에 미치는 영향 (The Influence of the Eyebrow Make-up on Facial Image)

  • 강은주
    • 한국패션뷰티학회지
    • /
    • 제3권2호
    • /
    • pp.31-38
    • /
    • 2005
  • Make-up changes facial images. In particular, eyebrow make-up is a part of changing expression most easily and effectively. While color make-up is helpful to produce women's desired image with their favorite colors, eyebrow make-up is hidden actor to give a clear impression to others. Therefore, this study connected facial type which is an important factor deciding facial image with eyebrow, examined image of eyebrow make-up and that changed by facial types and aimed to be helpful in producing more effective facial image with eyebrow make-up considering one's facial type. Consequently, it was found that eyebrow make-up was a great factor in making better facial impression and image and complementing the weakness of facial type. h strong impression of facial type can be changed into soft shape or foolish shape in worse case depending on the types of eyebrow make-up. Eyebrow make-up shows charming image as angle of eyebrow is steep, heavy image as eyebrow is horizontal, cold image as eyebrow tail rises and simple and dull image as it lowers. Therefore, it is known that image of eyebrow make-up can be governed by several factors including angle and direction of eyebrow. Consequently, it is thought that most effective eyebrow make-up considers individual facial types, images of their eyes, noses and mouths and factors deciding angle, direction and colors of eyebrow.

  • PDF

감성적 인터랙션 디자인 요소로서의 표정 요소에 관한 연구 (Study on Facial Expression Factors as Emotional Interaction Design Factors)

  • 허성철
    • 감성과학
    • /
    • 제17권4호
    • /
    • pp.61-70
    • /
    • 2014
  • 로봇과 인간의 상호작용에서 언어에 의한 정보 전달은 상호작용의 한계가 있으므로, 더욱 원활하고 효율적인 의사소통과 나아가 로봇의 감정 표현까지 구현하기 위해서는 비언어적 커뮤니케이션이 필요하다. 본 연구에서는 쇼핑을 지원하는 로봇을 전제로 하여 쇼핑 행태에 따른 7가지 비언어적 정보를 도출하였다. 도출된 비언어적 정보의 요소로서 표정을 선정하고, 2D 분석을 통하여 얼굴 구성요소를 코드화 하였다. 얼굴 구성요소의 코드를 조합한 3D 애니메이션을 이용하여 비언어적 정보의 표현에 대한 유의성을 분석하였다. 분석 결과, 제안된 비언어적 정보의 표현 방법은 높은 수준의 유의성을 보여 비언어적 정보 연구의 기초자료로서 활용 가능성이 확인되었다. 다만, '당황'의 경우 코드화된 얼굴 구성 요소의 모양 적용에 한계가 있으며 보다 체계적 연구가 요구된다.

얼굴 표정 인식 기술의 동향과 향후 방향: 텍스트 마이닝 분석을 중심으로 (Trends and Future Directions in Facial Expression Recognition Technology: A Text Mining Analysis Approach)

  • 전인수;이병천;임수빈;문지훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.748-750
    • /
    • 2023
  • Facial expression recognition technology's rapid growth and development have garnered significant attention in recent years. This technology holds immense potential for various applications, making it crucial to stay up-to-date with the latest trends and advancements. Simultaneously, it is essential to identify and address the challenges that impede the technology's progress. Motivated by these factors, this study aims to understand the latest trends, future directions, and challenges in facial expression recognition technology by utilizing text mining to analyze papers published between 2020 and 2023. Our research focuses on discerning which aspects of these papers provide valuable insights into the field's recent developments and issues. By doing so, we aim to present the information in an accessible and engaging manner for readers, enabling them to understand the current state and future potential of facial expression recognition technology. Ultimately, our study seeks to contribute to the ongoing dialogue and facilitate further advancements in this rapidly evolving field.

적응적 딥러닝 학습 기반 영상 인식 (Image Recognition based on Adaptive Deep Learning)

  • 김진우;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.113-117
    • /
    • 2018
  • 사람의 감정은 다양한 요소에 의해서 드러난다. 말, 행동, 표정, 옷차림 등등. 하지만 사람은 자신의 감정을 숨길 줄 안다. 따라서 어느 한 가지만으로는 쉽게 그 감성을 짐작할 수 없다. 우리는 이러한 문제를 해결하고 보다 진솔한 사람의 감성을 파악하기 위해 행동과 표정에 주의를 기울이기로 하였다. 행동과 표정은 부단한 노력과 훈련이 없으면 쉽게 감출 수 없기 때문이다. 본 논문에서는 딥러닝 방법을 통해 적은 데이터를 가지고 점진적으로 사람의 행동과 표정을 학습하여 두 가지 결과의 조합을 통해 사람의 감성을 추측하는 알고리즘을 제안한다. 이 알고리즘을 통해 우리는 보다 종합적으로 사람의 감성을 파악할 수 있다.

인간의 감성기호 체계화를 위한 감정영역범주화에 관한 연구 (Research about the Abstraction of Area Typicality of Emotions for Systematization of Human's Sensitivity Symbol)

  • 윤봉식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 본 연구는 3D캐릭터 개발에 효율성을 높이고, 보다 인간의 표정에 가까운 캐릭터표정을 제작하기 위하여 실시되었다. 각 연령층별, 성별, 직위 등의 계층으로 각 감정영역을 데이터화하여 하나의 시스템으로 연동되어진다면 애니메이션, 만화, 연기 및 다양한 영상 엔터테인먼트산업과 이에 필요한 인력양성에 고무적인 반향을 일으킬 수 있을 것으로 사료된다. 이에 그 기반연구로 실시된 선행 연구를 바탕으로 이번 연구에서는 연구영역 중 1개 계층 8대 감정영역에 대한 표본연구로 진행하였다. 이로써 인간의 감정과 표현 간에는 일련의 연계성이 존재하며, 특히 표정에서 나타나는 비언어적 감성기호들을 범주화할 수 있다는 가정을 증명할 수 있었다. 그러나 인간의 풍부한 감정은 하나의 자극에 대한 단일감정보다는 다수 또는 지속자극에 대한 복합기호로서 표출되므로 이에 대한 통제는 많은 어려움이 있고, 본 연구에서 제시한 연구 모델은 각 영역별, 척도별 단일 감정에 대한 내용만을 다루기 위해 실험환경을 일부 조작하였다. 본 연구의 결과는 다양한 미디어제작에 필요한 가상캐릭터의 표정, 의인화 등을 위한 주요한 데이터로 활용가능하며, 향후 연구에서는 더 많은 표본에 대한 폭넓은 데이터베이스 구축과 상대적 비교검증이 이루어져야한다.

  • PDF