• 제목/요약/키워드: facial region detection

검색결과 116건 처리시간 0.022초

눈 영역 추출에 의한 얼굴 기울기 교정 (Skew correction of face image using eye components extraction)

  • 윤호섭;왕민;민병우
    • 전자공학회논문지B
    • /
    • 제33B권12호
    • /
    • pp.71-83
    • /
    • 1996
  • This paper describes facial component detection and skew correction algorithm for face recognition. We use a priori knowledge and models about isolated regions to detect eye location from the face image captured in natural office environments. The relations between human face components are represented by several rules. We adopt an edge detection algorithm using sobel mask and 8-connected labelling algorith using array pointers. A labeled image has many isolated components. initially, the eye size rules are used. Eye size rules are not affected much by irregular input image conditions. Eye size rules size, and limited in the ratio between gorizontal and vertical sizes. By the eye size rule, 2 ~ 16 candidate eye components can be detected. Next, candidate eye parirs are verified by the information of location and shape, and one eye pair location is decided using face models about eye and eyebrow. Once we extract eye regions, we connect the center points of the two eyes and calculate the angle between them. Then we rotate the face to compensate for the angle so that the two eyes on a horizontal line. We tested 120 input images form 40 people, and achieved 91.7% success rate using eye size rules and face model. The main reasons of the 8.3% failure are due to components adjacent to eyes such as eyebrows. To detect facial components from the failed images, we are developing a mouth region processing module.

  • PDF

얼굴 특징점들을 이용한 근사 정면 얼굴 영상 검출 (Approximate Front Face Image Detection Using Facial Feature Points)

  • 김수진;정용석;오정수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.675-678
    • /
    • 2018
  • 얼굴은 사람을 확인할 수 있는 고유한 성질을 갖고 있어 얼굴 인식이 출입통제, 범죄자 검색, 방법용 CCTV 같은 보안 영역과 본인 인증 영역에 활발히 활용되고 있다. 정면 얼굴 영상은 가장 많은 얼굴 정보를 갖고 있어 얼굴 인식을 위해 가능한 정면 얼굴 영상을 취득하는 것이 필요하다. 본 연구에서 하르유사 특징을 이용한 Adaboost 알고리즘을 이용해 얼굴 영역이 검출되고 mean-shift 알고리즘을 이용해 얼굴을 추적한다. 그리고 얼굴 영역에서 눈과 입 같은 얼굴 요소들의 특징점들을 추출해 그들의 기하학적인 정보를 이용해 두 눈의 비와 얼굴의 회전 정도를 계산하고 실시간으로 근사 정면 얼굴 영상을 제시한다.

  • PDF

스마트폰에서 웃음 치료를 위한 표정인식 애플리케이션 개발 (Development of Recognition Application of Facial Expression for Laughter Theraphy on Smartphone)

  • 강선경;이옥걸;송원창;김영운;정성태
    • 한국멀티미디어학회논문지
    • /
    • 제14권4호
    • /
    • pp.494-503
    • /
    • 2011
  • 본 논문에서는 스마트폰에서 웃음 치료를 위한 표정인식 애플리케이션을 제안한다. 제안된 방법에서는 스마트폰의 전면 카메라 영상으로부터 AdaBoost 얼굴 검출 알고리즘을 이용하여 얼굴을 검출한다. 얼굴을 검출한 다음에는 얼굴 영상으로부터 입술 영역을 검출한다. 그 다음 프레임부터는 얼굴을 검출하지 않고 이전 프레임에서 검출된 입술영역을 3단계 블록 매칭 기법을 이용하여 추적한다. 카메라와 얼굴 사이의 거리에 따라 입술 영역의 크기가 달라지므로, 입술 영역을 구한 다음에는 고정된 크기로 정규화한다. 그리고 주변 조명 상태에 따라 영상이 달라지므로, 본 논문에서는 히스토그램 매칭과 좌우대칭을 결합하는 조명 정규화 알고리즘을 이용하여 조명 보정 전처리를 함으로써 조명에 의한 영향을 줄일 수 있도록 하였다. 그 다음에는 검출된 입술 영상에 주성분 분석을 적용하여 특징 벡터를 추출하고 다층퍼셉트론 인공신경망을 이용하여 실시간으로 웃음 표정을 인식한다. 스마트폰을 이용하여 실험한 결과, 제안된 방법은 초당 16.7프레임을 처리할 수 있어서 실시간으로 동작 가능하였고 인식률 실험에서도 기존의 조명 정규화 방법보다 개선된 성능을 보였다.

Human Head Mouse System Based on Facial Gesture Recognition

  • Wei, Li;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제10권12호
    • /
    • pp.1591-1600
    • /
    • 2007
  • Camera position information from 2D face image is very important for that make the virtual 3D face model synchronize to the real face at view point, and it is also very important for any other uses such as: human computer interface (face mouth), automatic camera control etc. We present an algorithm to detect human face region and mouth, based on special color features of face and mouth in $YC_bC_r$ color space. The algorithm constructs a mouth feature image based on $C_b\;and\;C_r$ values, and use pattern method to detect the mouth position. And then we use the geometrical relationship between mouth position information and face side boundary information to determine the camera position. Experimental results demonstrate the validity of the proposed algorithm and the Correct Determination Rate is accredited for applying it into practice.

  • PDF

동적 모델을 이용한 얼굴 영상에서의 관심 영역 추출 (Region-of-Interest Detection from a Facial Image Using Active Model)

  • 이형일;김경환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (2)
    • /
    • pp.343-345
    • /
    • 2001
  • 본 논문에서는 얼굴 인식 시스템에서 정면 얼굴 영상의 관심 영역을 추출하는 효율적인 방법을 소개한다. 얼굴 인식 시스템은 얼굴 요소의 특징 을 이용하여 자동으로 얼굴을 구별하는 시스템이며, 얼굴 요소로는 눈, 코, 입과 눈썹을 주로 사용한다. 본 논문에서는 동적 모델을 이용하여 눈과 입을 관심영역으로 하여 이 영역을 세 단계로 나누어 추출한다. 첫 번째로 전체 얼굴 모델을 이용하여 similarity 변환을 적용하여 얼굴의 대략적인 위치를 찾는다. 두 번째 단계에서는 얼굴 근처에서 각각의 눈, 입 모델을 비선형 변환을 적용하여 정확한 눈과 입을 찾는다. 최종 단계에서는 이렇게 맞춘 모델로부터 전체 모델을 변형시킨 후에 변형전과 후의 적합성을 판단하여 최종 위치를 정한다. 제안한 알고리즘을 130명의 영상에 대하여 적용한 결과 눈을 정확하게 추출한 경우는 120명이고, 입을 정확히 추출한 경우는 119명이었다. 본 논문에서 제안하는 관심 영역 추출 방법은 일반적인 모델 방법에 특정 목적에 적합한 모델을 혼합한 방법으로 일반적인 모델만을 적용한 방법과 프로젝션 분석 등의 특정 목적만을 위한 방법보다 좋은 결과를 얻을 수 있었다.

  • PDF

피부색 분할과 소벨 마스크를 이용한 얼굴 영역 검출 (A Facial Region Detection Using the Skin-Color Segmentation and Sobel Mask)

  • 유창연;권동진;장언동;김영길;곽내정;안재형
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2002년도 춘계학술발표논문집(하)
    • /
    • pp.553-558
    • /
    • 2002
  • 본 논문에서는 컬러 영상에서 피부색 분할과 소벨 마스크를 이용한 얼굴 영역 검출 알고리즘을 제안한다. 제안된 알고리즘은 YCbCr색공간에서 Cb와 Cr성분을 이용하여 피부색 분할을 한 후에 형태학적 필터링과 레이블링을 통해 얼굴 후보 영역을 분리한다. 분리된 각 후보 영역에 대해 휘도 성분 Y에서 소벨 마스크의 수직 연산자를 적용한 후에 수평 투영을 통해 나타난 최대값을 눈의 위치로 검출해낸다. 비슷하게 얼굴의 지형적인 특징과 소벨 마스크의 수평 연산자를 적용하여 계산된 수평 투영의 최대값에 따라 턱 부분을 검출한다. 컴퓨터 시뮬레이션 결과는 제안된 방법이 기존의 방법보다 얼굴 영역을 정확하게 분리할 수 있음을 보인다.

  • PDF

얼굴영상을 이용한 지능형 로봇의 개인식별 및사용자 추적 성능평가 방법 (Performance Evaluation Method of User Identification and User Tracking for Intelligent Robots Using Face Images)

  • 김대진;박광현;홍지만;정영숙;최병욱
    • 로봇학회논문지
    • /
    • 제4권3호
    • /
    • pp.201-209
    • /
    • 2009
  • In this paper, we deal with the performance evaluation method of user identification and user tracking for intelligent robots using face images. This paper shows general approaches for standard evaluation methods to improve intelligent robot systems as well as their algorithms. The evaluation methods proposed in this paper can be combined with the evaluation methods for detection algorithms of face region and facial components to measure the overall performance of face recognition in intelligent robots.

  • PDF

Facial Shape Recognition Using Self Organized Feature Map(SOFM)

  • Kim, Seung-Jae;Lee, Jung-Jae
    • International journal of advanced smart convergence
    • /
    • 제8권4호
    • /
    • pp.104-112
    • /
    • 2019
  • This study proposed a robust detection algorithm. It detects face more stably with respect to changes in light and rotation forthe identification of a face shape. The proposed algorithm uses face shape asinput information in a single camera environment and divides only face area through preprocessing process. However, it is not easy to accurately recognize the face area that is sensitive to lighting changes and has a large degree of freedom, and the error range is large. In this paper, we separated the background and face area using the brightness difference of the two images to increase the recognition rate. The brightness difference between the two images means the difference between the images taken under the bright light and the images taken under the dark light. After separating only the face region, the face shape is recognized by using the self-organization feature map (SOFM) algorithm. SOFM first selects the first top neuron through the learning process. Second, the highest neuron is renewed by competing again between the highest neuron and neighboring neurons through the competition process. Third, the final top neuron is selected by repeating the learning process and the competition process. In addition, the competition will go through a three-step learning process to ensure that the top neurons are updated well among neurons. By using these SOFM neural network algorithms, we intend to implement a stable and robust real-time face shape recognition system in face shape recognition.

시각적 어텐션을 활용한 입술과 목소리의 동기화 연구 (Lip and Voice Synchronization Using Visual Attention)

  • 윤동련;조현중
    • 정보처리학회 논문지
    • /
    • 제13권4호
    • /
    • pp.166-173
    • /
    • 2024
  • 본 연구에서는 얼굴 동영상에서 입술의 움직임과 음성 간의 동기화 탐지 방법을 제안한다. 기존의 연구에서는 얼굴 탐지 기술로 얼굴 영역의 바운딩 박스를 도출하고, 박스의 하단 절반 영역을 시각 인코더의 입력으로 사용하여 입술-음성 동기화 탐지에 필요한 시각적인 특징을 추출하였다. 본 연구에서는 입술-음성 동기화 탐지 모델이 음성 정보의 발화 영역인 입술에 더 집중할 수 있도록 사전 학습된 시각적 Attention 기반의 인코더 도입을 제안한다. 이를 위해 음성 정보 없이 시각적 정보만으로 발화하는 말을 예측하는 독순술(Lip-Reading)에서 사용된 Visual Transformer Pooling(VTP) 모듈을 인코더로 채택했다. 그리고, 제안 방법이 학습 파라미터 수가 적음에도 불구하고 LRS2 데이터 세트에서 다섯 프레임 기준으로 94.5% 정확도를 보임으로써 최근 모델인 VocaList를 능가하는 것을 실험적으로 증명하였다. 또, 제안 방법은 학습에 사용되지 않은 Acappella 데이터셋에서도 VocaList 모델보다 8% 가량의 성능 향상이 있음을 확인하였다.

Comparative analysis of craniofacial asymmetry in subjects with and without symptoms of temporomandibular joint disorders: a cross-sectional study

  • Anita Pradhan;Preeti Bhattacharya;Shivani Singh;Anil Kumar Chandna;Ankur Gupta;Ravi Bhandari
    • Journal of the Korean Association of Oral and Maxillofacial Surgeons
    • /
    • 제49권3호
    • /
    • pp.125-134
    • /
    • 2023
  • Objectives: The aim of the study was to quantify and compare craniofacial asymmetry in subjects with and without symptoms of temporomandibular joint disorders (TMDs). Materials and Methods: A total of 126 adult subjects were categorized into two groups (63 with a TMDs and 63 without a TMDs), based on detection of symptoms using the Temporomandibular Joint Disorder-Diagnostic Index (TMD-DI) questionnaire. Posteroanterior cephalograms of each subject were traced manually and 17 linear and angular measurements were analyzed. Craniofacial asymmetry was quantified by calculating the asymmetry index (AI) of bilateral parameters for both groups. Results: Intra- and intergroup comparisons were analyzed using independent t-test and Mann-Whitney U test, respectively, with a P<0.05 considered statistically significant. An AI for each linear and angular bilateral parameter was calculated; higher asymmetry was found in TMD-positive patients compared with TMD-negative patients. An intergroup comparison of AIs found highly significant differences for the parameters of antegonial notch to horizontal plane distance, jugular point to horizontal plane distance, antegonial notch to menton distance, antegonial notch to vertical plane distance, condylion to vertical plane distance, and angle formed by vertical plane, O point and antegonial notch. Significant deviation of the menton distance from the facial midline was also evident. Conclusion: Greater facial asymmetry was seen in the TMD-positive group compared with the TMD-negative group. The mandibular region was characterized by asymmetries of greater magnitude compared with the maxilla. Patients with facial asymmetry often require management of temporomandibular joint (TMJ) pathology to achieve a stable, functional, and esthetic result. Ignoring the TMJ during treatment or failing to provide proper management of the TMJ and performing only orthognathic surgery may result in worsening of TMJ-associated symptoms (jaw dysfunction and pain) and re-occurrence of asymmetry and malocclusion. Assessments of facial asymmetry should take into account TMJ disorders to improve diagnostic accuracy and treatment outcomes.