• 제목/요약/키워드: facial expression change

검색결과 56건 처리시간 0.02초

오류-역전파 신경망 기반의 얼굴 검출 및 포즈 추정 (Back-Propagation Neural Network Based Face Detection and Pose Estimation)

  • 이재훈;전인자;이정훈;이필규
    • 정보처리학회논문지B
    • /
    • 제9B권6호
    • /
    • pp.853-862
    • /
    • 2002
  • 얼굴 검출은 디지털화 된 임의의 정지 영상 혹은 연속된 영상으로부터 얼굴 존재유무를 판단하고, 얼굴이 존재할 경우 영상 내 얼굴의 위치, 방향, 크기 등을 알아내는 기술로 정의된다. 이러한 얼굴 검출은 얼굴 인식이나 표정인식, 헤드 제스쳐 등의 기초 기술로서해당 시스템의 성능에 매우 중요한 변수 중에 하나이다. 그러나 영상 내의 얼굴은 표정, 포즈, 크기, 빛의 방향 및 밝기, 안경, 수염 등의 환경적 변화로 인해 얼굴 모양이 다양해지므로 정확하고 빠른 검출이 어렵다. 따라서 본 논문에서는 오류-역전파 신경망을 사용하여 몇가지 환경적 조건을 극복한 정확하고 빠른 얼굴 검출 방법을 제안한다. 제안된 방법은 표정과 포즈, 배경에 무관하게 얼굴을 검출하면서도 빠른 검출이 가능하다. 이를 위해 신경망을 이용하여 얼굴 검출을 수행하고, 검색 영역의 축소와 신경망 계산 시간의 단축으로 검출 응답 시간을 빠르게 하였다. 검색 영역의 축소는 영상 내 피부색 영역의 분할과 차영상을 이용하였고, 주성분 분석을 통해 신경망의 입력 백터를 축소시킴으로써 신경망 수행 시간과 학습 시간을 단축시켰다. 또, 추출된 얼굴 영상에서 포즈를 추정하고 눈 영역을 검출함으로써 얼굴 정보의 사용에 있어 보다 많은 정보를 추출할 수 있도록 하였다. 얼굴 검출 실험은 마할라노비스 거리를 사용하여 검출된 영상의 얼굴 여부를 판정하고, 성공률과 시간을 측정하였다. 정지 영상과 동영상에서 모두 실험하였으며, 피부색 영역의 분할을 사용할 경우 입력 영상의 칼라 설정의 유무에 다른 검출 성공률의 차를 보였다. 포즈 실험도 같은 조건에서 수행되었으며, 눈 영역의 검출은 안경의 유무에 다른 실험 결과를 보였다. 실험 결과 실시간 시스템에 사용 가능한 수준의 검색률과 검색 시간을 보였다.

비전 방식을 이용한 감정인식 로봇 개발 (Development of an Emotion Recognition Robot using a Vision Method)

  • 신영근;박상성;김정년;서광규;장동식
    • 산업공학
    • /
    • 제19권3호
    • /
    • pp.174-180
    • /
    • 2006
  • This paper deals with the robot system of recognizing human's expression from a detected human's face and then showing human's emotion. A face detection method is as follows. First, change RGB color space to CIElab color space. Second, extract skin candidate territory. Third, detect a face through facial geometrical interrelation by face filter. Then, the position of eyes, a nose and a mouth which are used as the preliminary data of expression, he uses eyebrows, eyes and a mouth. In this paper, the change of eyebrows and are sent to a robot through serial communication. Then the robot operates a motor that is installed and shows human's expression. Experimental results on 10 Persons show 78.15% accuracy.

The Effects of Image Making According to Somatotypes and Face Types

  • Choi, Mee-Sung;Kim, Sung-Hee
    • 패션비즈니스
    • /
    • 제10권3호
    • /
    • pp.44-53
    • /
    • 2006
  • The purposes of this study were to find out any significants among somatotypes and face types and importance of image making to successful students' life. The respondents were composed of 181 males and 160 females. It consists of total 29 items including the facial features, personality expression methods, characteristics of body shapes, image making, colors and neckline and their responses were measured with Likert 5-point scale. For data analysis, descriptive statistics, cross-tabulation analysis including $Χ^2$-test and frequency analysis were used. As the results, 47% of male students and 28% of female students responded they were satisfied with their own facial types. 32% of male students and all female students were not satisfied with their own body shapes and fashion depends on accessories like hat, sunglasses, boots and necklace rather than dress itself. All male and female students were not satisfied with their body shapes and recognized the importance of image. They answered that they change image if someone advices their image and it suggests that information and intellectual needs of image making are required and approach to efficient methods of image making is needed.

사용자 리뷰에서 표정 인식을 이용한 감정 표현 기법 (Emotional Expression Technique using Facial Recognition in User Review)

  • 최원관;황만수;김능회
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권5호
    • /
    • pp.23-28
    • /
    • 2022
  • 오늘날 디지털 플랫폼의 발달과 팬데믹 상황에 더불어 온라인 시장은 급속도로 성장하였다. 이로 인해 기존의 오프라인 시장과 다르게 온라인 시장에서의 특수성으로 인해 사용자들은 온라인 리뷰를 확인하게 되었고, 여러 연구들의 선례를 통해 리뷰가 사용자의 구매 의도를 정하는 데 중요한 역할을 하는 것을 확인할 수 있었다. 하지만 기존의 리뷰작성 방식에서는 작성자의 감정이 글의 어투나 단어와 같은 요소들을 통해 표현됨으로써 다른 사용자가 작성자의 감정을 쉽게 파악하기 어려웠으며 작성자가 감정을 표현하기 위해 강조하고 싶은 부분이 있다면 작성자가 일일이 강조하고 싶은 부분의 굵기를 굵게 하거나 감정에 따라 색상을 바꾸는 등 여러 번거로운 작업의 수고가 필요하였다. 따라서, 본 논문에서는 기존의 이러한 점을 보완하기 위해 카메라를 이용하여 표정 인식을 통해 사용자의 감정을 확인하고 기존의 감정과 색상에 관한 연구를 활용하여 각 감정에 맞는 색상을 자동으로 설정하고 사용자의 의도에 따라 사용자 리뷰에서 색상을 부여하는 기법을 제안하고자 한다.

다차원 데이터의 동적 얼굴 이미지그래픽 표현 (Representation of Dynamic Facial ImageGraphic for Multi-Dimensional)

  • 최철재;최진식;조규천;차홍준
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권10호
    • /
    • pp.1291-1300
    • /
    • 2001
  • 이 논문은 실시간 변화가 가능한 동적 그래픽스를 기반하며, 인간의 감성적 인식을 위해서 이미지 영상을 다차원 데이터의 그래픽 요소로 조작하는 시각화 표현 기법으로 연구되었다. 이 구현의 중요한 사상은 사람의 얼굴 특징 점과 기존의 화상 인식 알고리즘을 바탕으로 획득한 모수 제어 값을 다차원 데이터에 대응시켜 그 변화하는 수축 표정에 따라 감성 표현의 가상 이미지를 생성하는 이미지그래픽으로 표현한다. 제안된 DyFIG 시스템은 감성적인 표현을 할 수 있는 얼굴 그래픽의 모듈을 제안하고 구현하며, 조작과 실험을 통해 감성 데이터 표현 기술과 기법이 실현 가능함을 보인다.

  • PDF

중환자실 내 간호시술에 대한 간호사의 통증인식과 환자의 통증반응 (Pain Perception of Nurses and Pain Expression of Patients in Critical Care Units)

  • 배경희;정인숙
    • 대한간호학회지
    • /
    • 제44권4호
    • /
    • pp.437-445
    • /
    • 2014
  • Purpose: This study was done to identify pain perception (P-PER) by nurses and pain expression (P-EXP) by patients in critical care units (ICUs) and degree of agreement between nurses' P-PER and patients' P-EXP. Methods: Nurses' P-PER was measured with a self-administered questionnaire completed by 99 nurses working in ICUs during May, 2013. Patients' P-EXP was measured with the Critical Care Non-Verbal Pain Scale through observations of 31 ICU patients during nine nursing procedures (NPs) performed between May and July, 2013. Results: Nurses' P-PER was from 4.49 points for nasogastric tube (NGT) insertion to 0.83 for blood pressure (BP) measurement based on a 9-point scale, Patients' P-EXP was 4.48 points for NGT to 0.18 for BP measurement based on a 10-point scale. Eight NPs except oral care showed higher scores for nurses' P-PER than for patients' P-EXP. Position change (p=.019), subcutaneous injection (p<.001), blood sugar test (p<.001), and BP measurement (p<.001) showed significant differences between nurses' P-PER and patients' P-EXP. Conclusion: Nasogastric tube (NGT) insertion was scored highest by both nurses and patients. Eight NPs except 'oral care' showed nurses' P-PER was higher or similar to patients' P-EXP, which indicates that nurses may overestimate procedural pain experienced by patients.

개인화 전시 서비스 구현을 위한 지능형 관객 감정 판단 모형 (The Intelligent Determination Model of Audience Emotion for Implementing Personalized Exhibition)

  • 정민규;김재경
    • 지능정보연구
    • /
    • 제18권1호
    • /
    • pp.39-57
    • /
    • 2012
  • 최근 기존 전시 공간 내에 유비쿼터스 환경이 구축되면서, 관객과의 상호작용을 통해 전시 효과를 배가할 수 있는 인터랙티브 전시에 많은 사람들의 관심이 집중되고 있다. 이러한 인터랙티브 전시가 보다 고도화되기 위해서는 전시물에 대한 다양한 관객 반응을 측정하고, 이를 통해 대상 관객이 어떤 감정을 느끼는지 예측할 수 있는 적절한 의사결정지원 모형이 요구된다. 이러한 배경에서 본 연구는 인터랙티브 전시 공간 내에서 수집 가능한 다양한 관객 반응 중 얼굴표정의 변화를 이용하여, 관객의 감정을 추론, 판단하는 지능형 모형을 제시한다. 본 연구에서 제시하는 모형은 무자극 상태의 관객의 표정과 자극이 주어졌을 때 관객의 표정이 어떻게 변화하는지 변화량을 측정하여, 이를 기반으로 인공신경망 기법을 이용해 해당 관객의 감정을 판단하는 모형이다. 이 때, 제안모형의 감정 분류체계로는 간결하면서도 실무에 적용이 용이하여 그간 기존 문헌에서 널리 활용되어 온 매력-각성(Valence-Arousal) 모형을 사용한다. 제안모형의 유용성을 검증하기 위해, 본 연구에서는 2011 서울 DMC 컬쳐 오픈 행사에 참여하여, 일반인을 대상으로 얼굴 표정 변화 데이터를 수집하고, 이들이 느끼는 감정 상태를 설문조사하였다. 그리고 나서, 이 자료들을 대상으로 본 연구에서 제안하는 모형을 적용해 보고, 제안모형이 비교모형으로 설정된 통계기반 예측모형에 비해 더 우수한 성과를 보이는지 확인해 보았다. 실험 결과, 본 연구에서 제시하는 모형이 비교 모형인 중회귀분석 모형보다 더 우수한 결과를 제공함을 확인할 수 있었다. 본 연구를 통하여 구축된 관객 감정 판단 모형을 실제 전시장에서 활용한다면 전시물을 관람하는 관객의 반응에 따라 시의적절하면서도 효과적인 대응이 가능하기 때문에, 관객의 몰입과 만족을 보다 증대시킬 수 있을 것으로 기대된다.

얼굴 등록자 인증을 위한 클래스 구별 특징 벡터 기반 서포트 벡터 머신 (Class Discriminating Feature Vector-based Support Vector Machine for Face Membership Authentication)

  • 김상훈;설태인;정선태;조성원
    • 전자공학회논문지CI
    • /
    • 제46권1호
    • /
    • pp.112-120
    • /
    • 2009
  • 얼굴 등록자 인증은 얼굴 인식을 기반으로 인증하고자 하는 사람이 등록자인지, 아닌지를 판별하는 것으로, 기본적으로 2클래스 분류 문제이다. 서포트 벡터 머신(Support Vector Machine, 이하 SVM)은 2 클래스 분류 문제에 효과적인 것으로 잘 알려져 있다. 얼굴 등록자 인증의 분류에 사용되었던 기존의 SVM들은 각 클래스 (등록자 클래스, 미등록자 클래스) 구성원의 얼굴 이미지로부터 추출된 이미지 특징 벡터를 이용하여 훈련되고 인증된다. 이렇게 훈련 세트 구성원들의 이미지 특징 벡터들로 훈련된 SVM은 인증시의 얼굴 이미지가 SVM 훈련 세트의 얼굴 이미지들의 조명, 자세, 표정들과 다른 인증 환경의 경우나 등록자의 가입 및 탈퇴 등으로 등록 클래스나 미등록 클래스의 구성과 크기에 변동이 생기는 인증 환경의 경우에, 강인한 성능을 보이기 어려웠다. 본 논문에서는 강인한 얼굴 등록자 인증을 위하여, 효과적인 클래스 구별 특징 벡터 기반 SVM을 제안한다. 훈련과 인증에 사용되는 특징 벡터는 2개의 클래스를 잘 구별할 수 있는 특성을 반영하도록 선택되었기 때문에 이를 이용하여 훈련된 제안된 SVM은 등록자 클래스 구성의 변화 및 얼굴 이미지에 있어서의 조명, 얼굴 자세, 얼굴 표정의 변화에 덜 영향을 받는다. 실험을 통해 제안된 SVM에 기반을 둔 얼굴 등록자 인증 방법이 기존 SVM에 기반을 둔 방법보다 성능이 더 나으며, 등록자 클래스 구성의 변화에도 강인함을 보였다.

비선형 피부색 변화 모델을 이용한 실감적인 표정 합성 (Synthesis of Realistic Facial Expression using a Nonlinear Model for Skin Color Change)

  • 이정호;박현;문영식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (A)
    • /
    • pp.121-123
    • /
    • 2006
  • 얼굴의 표정은 얼굴의 구성요소 같은 기하학적 정보와 조명이나 주름 같은 세부적인 정보들로 표현된다. 얼굴 표정은 기하학적 변형만으로는 실감적인 표정을 생성하기 힘들기 때문에 기하학적 변형과 더불어 텍스쳐 같은 세부적인 정보도 함께 변형해야만 실감적인 표현을 할 수 있다. 표정비율이미지 (Expression Ratio Image)같은 얼굴 텍스처의 세부적인 정보를 변형하기 위한 기존 방법들은 조명에 따른 피부색의 변화를 정확히 표현할 수 없는 단점이 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해 서로 다른 조명 조건에서도 실감적인 표정 텍스처 정보를 적용할 수 있는 비선형 피부색 모델 기반의 표정 합성 방법을 제안한다. 제안된 방법은 동적 외양 모델을 이용한 자동적인 얼굴 특징 추출과 와핑을 통한 표정 변형 단계, 비선형 피부색 변화 모델을 이용한 표정 생성 단계, Euclidean Distance Transform (EDT)에 의해 계산된 혼합 비율을 사용한 원본 얼굴 영상과 생성된 표정의 합성 등 총 3 단계로 구성된다. 실험결과는 제안된 방법이 다양한 조명조건에서도 자연스럽고 실감적인 표정을 표현한다는 것을 보인다.

  • PDF

연속적인 얼굴 표정 변화 인식 방법에 관한 연구 (A Study of Recognizing Degree of Continuous Facial Expression Change)

  • 박호식;배철수;나상동
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 춘계학술발표논문집 (상)
    • /
    • pp.737-740
    • /
    • 2002
  • 본 논문에서는 영상에서 연속적인 얼굴 표정 변화 인식 방법에 대하여 제안하였다. 제안된 방법은 가중 결합으로 정합 된 분류 그래프를 이용한 얼굴 특징점 추적과 특징 궤도와 표정 변화 모델의 비교에 의한 얼굴표정 인식의 두 가지 부분으로 구성된다. 표정 변화 모델은 얼굴 특징 동작과 표정의 변화사이의 연관 관계를 표현한 B-spline 곡선을 이용하여 구성된다. 유형뿐만 아니라 표정의 변화 단계까지 인식 할 수 있다. 더욱이 획득된 표정 정보는 다음 프레임의 추적의 지침으로 피드백 됨에 따라 추적의 검색 시간을 감소시킴으로서 교점 확산 구간을 최소화 할 수 있다.

  • PDF