• Title/Summary/Keyword: Face Feature detection

Search Result 314, Processing Time 0.031 seconds

얼굴 요소의 영역 추출 및 Snakes를 이용한 윤곽선 추출 (Facial Feature Detection and Facial Contour Extraction using Snakes)

  • 이경희;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권7호
    • /
    • pp.731-741
    • /
    • 2000
  • 본 논문은 얼굴 인식 또는 표정 인식 분야에 있어서 중요한 특징인 얼굴과 얼굴의 주요소인 눈과 입, 눈썹의 영역 추출 및 그의 윤곽선 추출에 관한 방법을 제시한다. 얼굴요소의 영역 추출은 엣지정보와 이진화 영상을 병합하여 이용한 프로젝션 분석을 통하여, 얼굴 및 각 얼굴요소를 포함하는 최소포함사각형(MER: Minimum Enclosing Rectangle)을 추출한다. 윤곽선 추출은 얼굴요소 모양의 개인차가 반영되고 빠른 수렴을 할 수 있는 스네이크 모델을 정의하여 수행한다. 스네이크는 초기 윤곽선의 설정이 윤곽선 추출 결과에 큰 영향을 미치므로, 초기 윤곽선의 설정 과정이 매우 중요하다. 본 논문에서는 얼굴 및 각 얼굴요소를 포함하는 각각의 최소포함사각형(MER)을 추출하고, 추출된 MER 내에서 얼굴 및 각 얼굴요소의 일반적인 모양을 초기 윤곽선으로 설정하는 방법을 사용한다. 실험결과 눈, 입, 얼굴의 MER 추출은 성능이 모두 우수하고, 눈썹이 흐린 사람들의 경우에만 눈썹의 MER 추출 결과가 좋지 않았다. 추출된 MER을 기반으로 하여 스네이크 모델을 적용한 결과, 눈, 입, 눈썹, 얼굴의 다양한 모양을 반영한 윤곽선 추출 결과를 보였다. 특히 눈의 경우는 1차 유도 엣지 연산자에 의한 엣지와 2차 유도 연산자를 이용한 영점 교차점(Zero Crossing)과 병합한 에너지 함수를 설정하여 보다 더 나은 윤곽선 추출 결과를 얻었다. 얼굴의 윤곽선의 경우도 엣지값과 밝기값을 병합한 에너지 함수에 의해 비교적 정확한 결과를 얻을수 있었다.

  • PDF

그래프 컨벌루션 네트워크 기반 주거지역 감시시스템의 얼굴인식 알고리즘 개선 (Improvement of Face Recognition Algorithm for Residential Area Surveillance System Based on Graph Convolution Network)

  • 담하의;민병원
    • 사물인터넷융복합논문지
    • /
    • 제10권2호
    • /
    • pp.1-15
    • /
    • 2024
  • 스마트 지역사회의 구축은 지역사회의 안전을 보장하는 새로운 방법이자 중요한 조치이다. 촬영 각도로 인한 얼굴 기형 및 기타 외부 요인의 영향으로 인한 신원 인식 정확도 문제를 해결하기 위해 이 논문에서는 네트워크 모델을 구축할 때 전체 그래프 컨벌루션 모델을 설계하고, 그래프 컨벌루션 모델에 협력하여 얼굴의 핵심을 추출한다. 또한 얼굴의 핵심을 특정 규칙에 따라 핵심 포인트를 구축하며 이미지 컨벌루션 구조를 구축한 후 이미지 컨벌루션 모델을 추가하여 이미지 특징의 핵심을 개선한다. 마지막으로 두 사람의 얼굴의 이미지 특징 텐서를 계산하고 전체 연결 레이어를 사용하여 집계된 특징을 추출하고 판별하여 인원의 신원이 동일한지 여부를 결정한다. 최종적으로 다양한 실험과 테스트를 거쳐 이 글에서 설계한 네트워크의 얼굴 핵심 포인트에 대한 위치 정확도 AUC 지표는 300W 오픈 소스 데이터 세트에서 85.65%에 도달했다. 자체 구축 데이터 세트에서 88.92% 증가했다. 얼굴 인식 정확도 측면에서 이 글에서 제안한 IBUG 오픈 소스 데이터 세트에서 네트워크의 인식 정확도는 83.41% 증가했으며 자체 구축 데이터 세트의 인식 정확도는 96.74% 증가했다. 실험 결과는 이 글에서 설계된 네트워크가 얼굴을 모니터링하는 데 더 높은 탐지 및 인식 정확도를 가지고 있음을 보여준다.

입술 움직임 영상 선호를 이용한 음성 구간 검출 (Speech Activity Detection using Lip Movement Image Signals)

  • 김응규
    • 융합신호처리학회논문지
    • /
    • 제11권4호
    • /
    • pp.289-297
    • /
    • 2010
  • 본 논문에서는 음성인식을 위한 음성구간 검출과정에서 유입될 수 있는 동적인 음향에너지 이외에 화자의 입술움직임 영상신호까지 확인함으로써 외부 음향잡음이 음성인식 대상으로 오인식되는 것을 방지하기 위한 한 가지 방법이 제시된다. 우선, 연속적인 영상이 PC용 영상카메라를 통하여 획득되고 그 입술움직임 여부가 식별된다. 다음으로, 입술움직임 영상신호 데이터는 공유메모리에 저장되어 음성인식 프로세서와 공유한다. 한편, 음성인식의 전처리 단계인 음성구간 검출과정에서 공유메모리에 저장되어진 데이터를 확인함으로써 화자의 발성에 의한 음향에너지인지의 여부가 입증된다. 최종적으로, 음성인식기와 영상처리기를 연동시켜 실험한 결과, 영상카메라에 대면해서 발성하면 음성인식 결과의 출력에 이르기까지 연동처리가 정상적으로 진행됨을 확인하였고, 영상카메라에 대면치 않고 발성하면 연동처리시스템이 그 음성인식 결과를 출력치 못함을 확인하였다. 또한, 오프라인하의 입술움직임 초기 특정값 및 템플릿 초기영상을 온라인하에서 추출된 입술움직임 초기특정값 및 템플릿 영상으로 대체함으로써 입술움직임 영상 추적의 변별력을 향상시켰다. 입술움직임 영상 추적과정을 시각적으로 확인하고 실시간으로 관련된 패러미터를 해석하기 위해 영상처리 테스트베드를 구축하였다, 음성과 영상처리 시스템의 연동결과 다양한 조명환경 하에서도 약 99.3%의 연동율을 나타냈다.

얼굴 검출을 위한 Flood Fill 기반의 개선된 피부색 추출기법 (Improved Skin Color Extraction Based on Flood Fill for Face Detection)

  • 이동우;이상훈;한현호;채규수
    • 한국융합학회논문지
    • /
    • 제10권6호
    • /
    • pp.7-14
    • /
    • 2019
  • 본 논문에서는 YCbCr 색공간을 이용한 피부색 추출에서 조명과 그림자에 의한 손실 영역을 Flood Fill 알고리즘을 이용하여 보완하고 Haar-like 특징을 이용한 Cascade Classifier 얼굴 검출 방법을 제안하였다. Haar-like 특징을 이용한 Cascade Classifier는 이미지에서 기존의 YCbCr 색공간을 이용한 피부색 추출은 단순히 임계값만 사용하기 때문에 조명, 그림자 등에 의해 잡음과 손실 영역이 발생할 수 있다. 이러한 문제를 해결하기 위해 침식, 팽창 연산을 사용하여 잡음을 제거하였고 손실 영역을 추정하기 위해 Flood Fill 알고리즘을 사용하여 손실 영역을 추정하였다. 추정한 영역에 대하여 YCbCr 색공간의 임계값을 추가로 허용하였다. 나머지 손실영역에 대하여 위에서 추정한 영역중 추가로 허용한 영역의 평균값으로 색을 채워 넣었다. 추출한 이미지에 Haar-like Cascade Classifier를 사용하여 얼굴을 검출하였다. 기존의 Haar-like Cascade Classifier의 방법보다 제안하는 방법이 정확도가 약 4% 향상되었으며 YCbCr 색공간만을 이용한 피부색 추출보다 제안하는 방법의 검출률이 약 2% 향상되었다.

모핑을 이용한 눈 영역 크기 보정 기법 (The Size Correction Method of Eyes Region using Morphing)

  • 구은진;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.83-86
    • /
    • 2013
  • 본 논문은 모핑을 이용하여 양 쪽 눈 크기가 같지 않을 경우 눈 영역 크기를 보정하는 기법을 제안한다. 먼저, 입력받은 영상에서 haarcascade를 이용하여 얼굴과 눈을 검출한다. 검출된 눈 모양 중 한 쪽 눈 영역은 좌우를 반전시킨 후, 이전 단계에서 검출된 눈 모양을 캐니 엣지를 사용하여 눈매를 뽑아내고 제어선으로 이용하여 두 눈 사이의 대응관계를 설정한다. 그 후, 각각의 눈 영역을 이전 단계에서 설정한 대응관계에 맞추어 워핑을 한다. 그 후, 두 영상을 합병한다. 합변한 결과 영상을 두 눈 중 크기가 작은 눈에 적용한다. 이 결과 정면으로 바라보는 얼굴 영상을 테스트 영상으로 실험한 결과 제안된 시스템은 단순히 눈의 크기만 맞추는 방법보다 더 효율적이라는 것을 증명한다.

  • PDF

Frontal Face Video Analysis for Detecting Fatigue States

  • Cha, Simyeong;Ha, Jongwoo;Yoon, Soungwoong;Ahn, Chang-Won
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권6호
    • /
    • pp.43-52
    • /
    • 2022
  • 사람이 느끼는 피로는 다양한 생체신호로부터 측정이 가능한 것으로 알려져 있으며, 기존 연구는 질병과 관련된 심각한 피로수준을 산정하는데 주된 목적을 두고 있다. 본 연구에서는 피실험자의 영상을 이용하여 딥러닝 기반의 영상 분석 기술을 적용, 피로 여부를 판단하기 위한 모델을 제안한다. 특히 화상 분석에서 통상적으로 사용되는 객체 인식, 요소 추출과 함께 영상 데이터의 시계열적 특성을 고려하여 방법론을 교차한 3개 분석모델을 제시했다. 다양한 피로상황에서 수집된 정면 얼굴 영상 데이터를 이용하여 제시된 모델을 실험하였으며, CNN 모델의 경우 0.67의 정확도로 피로 상태를 분류할 수 있어 영상 분석 기반의 피로 상태 분류가 유의미하다고 판단된다. 또한 모델별 학습 및 검증 절차 분석을 통해 영상 데이터 특성에 따른 모델 적용방안을 제시했다.

얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성 (3D Facial Model Expression Creation with Head Motion)

  • 권오륜;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

교통신호제어를 위한 CUDA기반 보행자 행동판단 (Pedestrians Action Interpretation based on CUDA for Traffic Signal Control)

  • 이홍창;이상용;김영백
    • 한국지능시스템학회논문지
    • /
    • 제20권5호
    • /
    • pp.631-637
    • /
    • 2010
  • 본 연구에서는 교통 신호를 능동적으로 제어하기 위하여 횡단보도영역에서 보행자의 행동을 판단하는 방법을 제안한다. 코드북기법을 이용하여 보행자 객체를 검출하고, 외곽선을 정보를 획득한다. 신속한 객체 검출을 위하여 CUDA(Compute Unified Device Architecture)기반 병렬화 처리한다. 해당 객체의 형상정보에 왜곡을 일으키는 투영 음영을 제거한 후, 보행자 객체가 보행자인지 혹은 차량, 동물인지를 식별하기 위해 힐버트 스캔 거리값(Hilbert Scan Distance)을 이용한 형판정합 기법을 수행한다. 정합 후에는 보행자 객체의 움직임, 얼굴영역의 특징, 대기 시간의 분석을 통하여 보행자의 횡단보도 이용 의지를 판단하고 교통신호를 제어한다.

스테레오 영상 보정 알고리즘에 기반한 새로운 중간시점 영상합성 기법 (A New Intermediate View Reconstruction Scheme based-on Stereo Image Rectification Algorithm)

  • 박창주;고정환;김은수
    • 한국통신학회논문지
    • /
    • 제29권5C호
    • /
    • pp.632-641
    • /
    • 2004
  • 본 논문에서는 비교정 상태의 스테레오 입력영상에 영상보정 알고리즘을 적용한 새로운 중간시점 영상합성 기법을 제시하고 그 성능을 분석하였다. 제시된 방법에서는 먼저, 좌, 우 스테레오 영상의 각 화소 간들에 대한 유사도 및 모서리 검출을 통해 특징점을 추출한 다음, 이들 특징점을 이용하여 스테레오 영상간의 움직임 벡터와 에피폴라 선을 검출하였다. 그리고 스테레오 영상간의 수평선을 일치시킴으로써 좌, 우 스테레오 영상을 보정하고 최적으로 적응적 변위추정 기법을 이용하여 최적화된 중간시점 영상을 합성하였다. CCETT의 'Man' 영상과 스테레오 카메라를 사용하여 촬영한 '사람' 및 '자동차' 영상을 사용한 중간영상 합성 실험결과 본 논문에서 제안된 보정기법으로 교정된 스테레오 영상의 경우가 비교정 상태에 비해 'Man' 영상은 3.6㏈, '사람' 및 '자동차' 영상은 2.59㏈, 1.47㏈의 PSNR이 각각 개선됨이 분석됨으로써 본 논문에서 새로이 제시한 스테레오 영상 보정 알고리즘 기반의 중간시점 영상합성 기법의 실질적 응용 가능성을 제시하였다.

혼합 약한 분류기를 이용한 AdaBoost 알고리즘의 성능 개선 방법 (A Method to Improve the Performance of Adaboost Algorithm by Using Mixed Weak Classifier)

  • 김정현;등죽;김진영;강동중
    • 제어로봇시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.457-464
    • /
    • 2009
  • The weak classifier of AdaBoost algorithm is a central classification element that uses a single criterion separating positive and negative learning candidates. Finding the best criterion to separate two feature distributions influences learning capacity of the algorithm. A common way to classify the distributions is to use the mean value of the features. However, positive and negative distributions of Haar-like feature as an image descriptor are hard to classify by a single threshold. The poor classification ability of the single threshold also increases the number of boosting operations, and finally results in a poor classifier. This paper proposes a weak classifier that uses multiple criterions by adding a probabilistic criterion of the positive candidate distribution with the conventional mean classifier: the positive distribution has low variation and the values are closer to the mean while the negative distribution has large variation and values are widely spread. The difference in the variance for the positive and negative distributions is used as an additional criterion. In the learning procedure, we use a new classifier that provides a better classifier between them by selective switching between the mean and standard deviation. We call this new type of combined classifier the "Mixed Weak Classifier". The proposed weak classifier is more robust than the mean classifier alone and decreases the number of boosting operations to be converged.