• 제목/요약/키워드: Facial Model

검색결과 523건 처리시간 0.022초

스테레오 비전을 이용한 마커리스 정합 : 특징점 추출 방법과 스테레오 비전의 위치에 따른 정합 정확도 평가 (Markerless Image-to-Patient Registration Using Stereo Vision : Comparison of Registration Accuracy by Feature Selection Method and Location of Stereo Bision System)

  • 주수빈;문정환;신기영
    • 전자공학회논문지
    • /
    • 제53권1호
    • /
    • pp.118-125
    • /
    • 2016
  • 본 논문에서는 얼굴 영역 수술용 네비게이션을 위한 스테레오 비전과 CT 영상을 이용하여 환자-영상 간 정합(Image to patient registration) 알고리즘의 성능을 평가한다. 환자 영상 간 정합은 스테레오 비전 영상의 특징점 추출과 이를 통한 3차원 좌표 계산, 3차원 좌표와 3차원 CT 영상과의 정합 과정을 거친다. 스테레오 비전 영상에서 3가지 얼굴 특징점 추출 방법과 3가지 정합 방법을 사용하여 생성될 수 있는 5가지 조합 중 정합 정확도가 가장 높은 방법을 평가한다. 또한 머리의 회전에 따라 환자 영상 간 정합의 정확도를 비교한다. 실험을 통해 머리의 회전 각도가 약 20도의 범위 내에서 Active Appearance Model과 Pseudo Inverse Matching을 사용한 정합의 정확도가 가장 높았으며, 각도가 20도 이상일 경우 Speeded Up Robust Features와 Iterative Closest Point를 사용하였을 때 정합 정확도가 높았다. 이 결과를 통해 회전각도가 20도 범위 내에서는 Active Appearance Model과 Pseudo Inverse Matching 방법을 사용하고, 20도 이상의 경우 Speeded Up Robust Features와 Iterative Closest Point를 이용하는 것이 정합의 오차를 줄일 수 있다.

정서의 이차원모델에서 아동의 얼굴표정 변별에서 성 차이 (Sex differences of children's facial expression discrimination based on two-dimensional model of emotion)

  • 신영숙
    • 인지과학
    • /
    • 제21권1호
    • /
    • pp.127-143
    • /
    • 2010
  • 본 논문은 정서의 이차원 구조상에서 얼굴표정으로부터 아동의 정서변별에 대한 성별차이를 알아보고자 한다. 연구 그룹은 40개월, 52개월, 64개월의 92명의 아동들로 이루어졌으며, 남녀아동 비율은 남아 50%와 여아 50%였다. 92명의 아동들을 대상으로 12개의 정서 단어와 관계된 얼굴표정들을 선택하도록 하였다. 실험에 적용된 얼굴표정들은 54명의 대학생들로부터 9점 척도상에서 두 차원(쾌-불쾌차원과 각성-수면차원) 각각에서 표정의 강도가 평가된 사진들이 사용되었다. 실험결과에서 아동들은 쾌-불쾌차원 보다는 각성-수면차원에서 남녀간의 성별차이를 두드러지게 나타냈다. 각성-수면차원에서는 '졸리움, 화남, 편안함, 쓸쓸함' 정서들이 1보다 큰 성별차이를 보였다. 특히 남아들은 '졸리움, 화남, 쓸쓸함' 같은 정서들안에서 여아보다 높은 각성을 보인반면, 여아들은 '편안함' 정서에서 남아보다 높은 각성을 보였다.

  • PDF

표정 분류 연구 (Analysis of facial expression recognition)

  • 손나영;조현선;이소현;송종우
    • 응용통계연구
    • /
    • 제31권5호
    • /
    • pp.539-554
    • /
    • 2018
  • 최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용이 중요시 된다. 특히 인간을 대상으로 상황에 맞는 대응을 하기 위해서는 인간의 표정을 실시간으로 인식하여 빠르고 정확한 판단을 내리는 것이 필요하다. 따라서, 보다 빠르고 정확하게 표정을 인식하는 시스템을 구축하기 위해 얼굴 이미지 분석에 대한 많은 연구들이 선행되어 왔다. 본 연구에서는 웹사이트 Kaggle에서 제공한 48*48 8-bit grayscale 이미지 데이터셋을 사용하여 얼굴인식과 표정분류로 구분된 두 단계를 거치는 얼굴표정 자동 인식 시스템을 구축하였고, 이를 기존의 연구와 비교하여 자료 및 방법론의 특징을 고찰하였다. 분석 결과, Face landmark 정보에 주성분분석을 적용하여 단 30개의 주성분만으로도 빠르고 효율적인 예측모형을 얻을 수 있음이 밝혀졌다. LDA, Random forest, SVM, Bagging 중 SVM방법을 적용했을 때 가장 높은 정확도를 보이며, LDA방법을 적용하는 경우는 SVM 다음으로 높은 정확도를 보이며, 매우 빠르게 적합하고 예측하는 것이 가능하다.

다해상도 3D 얼굴 모델의 압축 (Multiresolution 3D Facial Model Compression)

  • 박동희;이종석;이영식;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 춘계종합학술대회
    • /
    • pp.602-607
    • /
    • 2002
  • 본 논문에서는 효율적인 압축 기법과 멀티미디어를 위한 다 해상도 3D 얼굴 모델 전송, 그리고 저비트율 응용에 대해 제안하고자 한다. 일반적으로 얼굴 모델은 3D 레이저 디지타이저에 의해서 얻어지게 되고 애니메이션, 비디오게임, 비디오 회의와 같은 응용 범위에 따라 여러 해상도로 재양자화 되어진다. 3D 디지털화된 얼굴 모델을 정합하고 재양자화 하기 위해서 2D 템플릿을 변형함으로써 압축 모델을 얻을 수 있다. 현재까지의 연구에서 다섯 가지 해상도로 계층적 2D 얼굴 와이어프레임 템플릿을 만들었다. 변형 과정에서 2D 템플릿은 얼굴 특징점과 제안된 PCAT(piecewise chainlet affine transformation)에 의해 바뀌게 된다. 재양자화된 후 3D 디지털화된 모델은 인지하지 못할 정도로 손실이 줄어들게 된다. 더욱이, 본 논문에서 제안한 계층적 데이터 구조를 갖는 다 해상도 얼굴모델은 통신망에서 점진적으로 알려지고 사용되어질 것이다.

  • PDF

Comparison of Computer and Human Face Recognition According to Facial Components

  • Nam, Hyun-Ha;Kang, Byung-Jun;Park, Kang-Ryoung
    • 한국멀티미디어학회논문지
    • /
    • 제15권1호
    • /
    • pp.40-50
    • /
    • 2012
  • Face recognition is a biometric technology used to identify individuals based on facial feature information. Previous studies of face recognition used features including the eye, mouth and nose; however, there have been few studies on the effects of using other facial components, such as the eyebrows and chin, on recognition performance. We measured the recognition accuracy affected by these facial components, and compared the differences between computer-based and human-based facial recognition methods. This research is novel in the following four ways compared to previous works. First, we measured the effect of components such as the eyebrows and chin. And the accuracy of computer-based face recognition was compared to human-based face recognition according to facial components. Second, for computer-based recognition, facial components were automatically detected using the Adaboost algorithm and active appearance model (AAM), and user authentication was achieved with the face recognition algorithm based on principal component analysis (PCA). Third, we experimentally proved that the number of facial features (when including eyebrows, eye, nose, mouth, and chin) had a greater impact on the accuracy of human-based face recognition, but consistent inclusion of some feature such as chin area had more influence on the accuracy of computer-based face recognition because a computer uses the pixel values of facial images in classifying faces. Fourth, we experimentally proved that the eyebrow feature enhanced the accuracy of computer-based face recognition. However, the problem of occlusion by hair should be solved in order to use the eyebrow feature for face recognition.

개인화 전시 서비스 구현을 위한 지능형 관객 감정 판단 모형 (The Intelligent Determination Model of Audience Emotion for Implementing Personalized Exhibition)

  • 정민규;김재경
    • 지능정보연구
    • /
    • 제18권1호
    • /
    • pp.39-57
    • /
    • 2012
  • 최근 기존 전시 공간 내에 유비쿼터스 환경이 구축되면서, 관객과의 상호작용을 통해 전시 효과를 배가할 수 있는 인터랙티브 전시에 많은 사람들의 관심이 집중되고 있다. 이러한 인터랙티브 전시가 보다 고도화되기 위해서는 전시물에 대한 다양한 관객 반응을 측정하고, 이를 통해 대상 관객이 어떤 감정을 느끼는지 예측할 수 있는 적절한 의사결정지원 모형이 요구된다. 이러한 배경에서 본 연구는 인터랙티브 전시 공간 내에서 수집 가능한 다양한 관객 반응 중 얼굴표정의 변화를 이용하여, 관객의 감정을 추론, 판단하는 지능형 모형을 제시한다. 본 연구에서 제시하는 모형은 무자극 상태의 관객의 표정과 자극이 주어졌을 때 관객의 표정이 어떻게 변화하는지 변화량을 측정하여, 이를 기반으로 인공신경망 기법을 이용해 해당 관객의 감정을 판단하는 모형이다. 이 때, 제안모형의 감정 분류체계로는 간결하면서도 실무에 적용이 용이하여 그간 기존 문헌에서 널리 활용되어 온 매력-각성(Valence-Arousal) 모형을 사용한다. 제안모형의 유용성을 검증하기 위해, 본 연구에서는 2011 서울 DMC 컬쳐 오픈 행사에 참여하여, 일반인을 대상으로 얼굴 표정 변화 데이터를 수집하고, 이들이 느끼는 감정 상태를 설문조사하였다. 그리고 나서, 이 자료들을 대상으로 본 연구에서 제안하는 모형을 적용해 보고, 제안모형이 비교모형으로 설정된 통계기반 예측모형에 비해 더 우수한 성과를 보이는지 확인해 보았다. 실험 결과, 본 연구에서 제시하는 모형이 비교 모형인 중회귀분석 모형보다 더 우수한 결과를 제공함을 확인할 수 있었다. 본 연구를 통하여 구축된 관객 감정 판단 모형을 실제 전시장에서 활용한다면 전시물을 관람하는 관객의 반응에 따라 시의적절하면서도 효과적인 대응이 가능하기 때문에, 관객의 몰입과 만족을 보다 증대시킬 수 있을 것으로 기대된다.

모바일 카메라를 이용한 경량 3D 모델링 (Light 3D Modeling with mobile equipment)

  • 주승환;서희석;한성휴
    • 디지털산업정보학회논문지
    • /
    • 제12권4호
    • /
    • pp.107-114
    • /
    • 2016
  • Recently, 3D related technology has become a hot topic for IT. 3D technologies such as 3DTV, Kinect and 3D printers are becoming more and more popular. According to the flow of the times, the goal of this study is that the general public is exposed to 3D technology easily. we have developed a web-based application program that enables 3D modeling of facial front and side photographs using a mobile phone. In order to realize 3D modeling, two photographs (front and side) are photographed with a mobile camera, and ASM (Active Shape Model) and skin binarization technique are used to extract facial height such as nose from facial and side photographs. Three-dimensional coordinates are generated using the face extracted from the front photograph and the face height obtained from the side photograph. Using the 3-D coordinates generated for the standard face model modeled with the standard face as a control point, the face becomes the face of the subject when the RBF (Radial Basis Function) interpolation method is used. Also, in order to cover the face with the modified face model, the control point found in the front photograph is mapped to the texture map coordinate to generate the texture image. Finally, the deformed face model is covered with a texture image, and the 3D modeled image is displayed to the user.

FGW-FER: Lightweight Facial Expression Recognition with Attention

  • Huy-Hoang Dinh;Hong-Quan Do;Trung-Tung Doan;Cuong Le;Ngo Xuan Bach;Tu Minh Phuong;Viet-Vu Vu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권9호
    • /
    • pp.2505-2528
    • /
    • 2023
  • The field of facial expression recognition (FER) has been actively researched to improve human-computer interaction. In recent years, deep learning techniques have gained popularity for addressing FER, with numerous studies proposing end-to-end frameworks that stack or widen significant convolutional neural network layers. While this has led to improved performance, it has also resulted in larger model sizes and longer inference times. To overcome this challenge, our work introduces a novel lightweight model architecture. The architecture incorporates three key factors: Depth-wise Separable Convolution, Residual Block, and Attention Modules. By doing so, we aim to strike a balance between model size, inference speed, and accuracy in FER tasks. Through extensive experimentation on popular benchmark FER datasets, our proposed method has demonstrated promising results. Notably, it stands out due to its substantial reduction in parameter count and faster inference time, while maintaining accuracy levels comparable to other lightweight models discussed in the existing literature.

실시간 감정 표현 아바타의 설계 및 구현 (Design and Implementation of a Real-Time Emotional Avatar)

  • 정일홍;조세홍
    • 디지털콘텐츠학회 논문지
    • /
    • 제7권4호
    • /
    • pp.235-243
    • /
    • 2006
  • 본 논문에서는 얼굴의 표정 변화를 인식하여 실시간으로 감정을 표현하는 아바타를 설계하고 구현하는 방법을 제안하였다. 실시간 감정 표현 아바타는 수동으로 아바타의 표정 패턴을 변화를 주는 것이 아니라 웹캠을 이용하여 실시간으로 입 모양 특징을 추출하고 추출한 입 모양의 패턴을 분석한 뒤, 미리 정의된 표정 패턴에 부합되는 것을 찾는다. 그리고 부합된 표정 패턴을 아바타에 적용하여 아바타의 얼굴 표정을 표현한다. 표정 인식 아바타는 웹캠에서 들어온 영상을 모델 접근 방법을 이용하여 보다 빠르게 입 부분을 인식할 수 있도록 하였다. 그리고 표정 패턴 추출은 표정에 따라 입 모양이 변하는 것을 이용하였다. 모델접근 방법을 이용하여 눈의 정보를 찾은 후 그 정보를 이용하여 입 모양을 추출하게 된다. 기본적으로 13가지 입 모양으로 각각의 표정을 유추하고 각 표정 패턴에 맞는 6개의 아바타를 미리 구현하여 보다 빠르게 아바타의 표정을 변할 수 있게 하였다.

  • PDF

새로운 얼굴 특징공간을 이용한 모델 기반 얼굴 표정 인식 (Model based Facial Expression Recognition using New Feature Space)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제17B권4호
    • /
    • pp.309-316
    • /
    • 2010
  • 본 연구에서는 얼굴 그리드 각도를 특징공간으로 하는 새로운 모델 기반 얼굴 표정 인식 방법을 제안한다. 제안 방식은 6가지 얼굴 대표 표정을 인식하기 위해 표정 그리드를 이용하여 그리드의 각 간선과 정점이 형성하는 각도를 기반으로 얼굴 특징 공간을 구성한다. 이 방법은 다른 표정 인식 알고리즘의 정확도를 낮추는 원인인 변환, 회전, 크기변화와 같은 어파인 변환에 강건한 특징을 보인다. 또한, 본 연구에서는 각도로 특징공간을 구성하고 이 공간 내에서 Wrapper 방식으로 특징 부분집합을 선택하는 과정을 설명한다. 선택한 특징들은 SVM, 3-NN 분류기를 이용해 분류하고 분류 결과는 2중 교차검증을 통해 검증하도록 한다. 본 연구가 제안한 방법에서는 94%의 표정 인식 결과를 보였으며 특히 특징 부분집합 선택 알고리즘을 적용한 결과 전체 특징을 이용한 경우보다 약 10%의 인식율 개선 효과를 보인다.