• 제목/요약/키워드: facial video

검색결과 126건 처리시간 0.024초

개선한 아다부스트 알고리즘을 이용한 기울어진 얼굴 실시간 검출 (Real-time Slant Face detection using improvement AdaBoost algorithm)

  • 나종원
    • 한국항행학회논문지
    • /
    • 제12권3호
    • /
    • pp.280-285
    • /
    • 2008
  • 기존의 얼굴 검출 방법은 프레임 간의 차를 이용하여 움직임을 검출하는 방법이 사용되어 왔다. 그러나, 대부분이 실시간을 고려하지 않은 수학적 접근법을 사용하거나 알고리즘이 지나치게 복잡하여 실시간 구현에 용이하지 않았다. 본 논문에서는 실시간 얼굴검출을 위하여 감시카메라에서 입력된 RGB영상을 YCbCr 영상으로 변환한 후 연속된 두 영상의 차를 구하고 Glassfire 라벨링을 실시했다. 라벨링 결과 가장 넓은 구역의 면적과 Area 임계치 값을 비교하여 임계값 이상의 면적이면 동작변환으로 인식하고 영상을 추출하였다. 이렇게 추출된 동작변환 영상을 대상으로 얼굴 검출을 실시하였다. 얼굴 검출에 필요한 특징을 추출하기 위해 아다부스트 알고리즘을 사용하였다.

  • PDF

색상정보와 AdaBoost 알고리즘을 이용한 얼굴검출 (Face Detection using Color Information and AdaBoost Algorithm)

  • 나종원;강대욱;배종성
    • 한국정보통신학회논문지
    • /
    • 제12권5호
    • /
    • pp.843-848
    • /
    • 2008
  • 얼굴 검출은 대부분 얼굴의 움직임 정보를 이용한다. 기존에 얼굴 검출 방법은 프레임간의 차를 이용하여 움직임을 검출하는 방법이 사용되어 왔으나 대부분이 실시간을 고려하지 않은 수학적 접근법을 사용하거나 알고리즘이 지나치게 복잡하여 실시간 구현에 용이하지 않았다. 본 논문에서는 실시간 얼굴검출을 위하여 감시카메라에서 입력된 RGB 영상을 YCbCr 영상으로 변환한 후 연속된 두 영상의 차를 구하고 Glassfire 라벨링을 실시했다. 라벨링 결과 가장 넓은 구역의 면적과 Area 임계치 값을 비교하여 임계값 이상의 면적이면 동작변환으로 인식하고 영상을 추출하였다. 이렇게 추출된 동작변환 영상을 대상으로 얼굴 검출을 실시하였다. 얼굴 검출에 필요한 특징을 추출하기 위해 AdaBoost 알고리즘을 사용하였다.

동영상에서 인물식별을 위한 얼굴검출 알고리즘 구현 (Implementation of a face detection algorithm for the identification of persons)

  • 조미남;지유강
    • 정보보호학회논문지
    • /
    • 제21권1호
    • /
    • pp.85-91
    • /
    • 2011
  • 영화, 드라마와 같은 비디오에서 등장하는 인물을 검출하고 인식하는 기술은 일반 사용자를 대상으로 PVR(personal video recorder), 모바일 폰과 멀티미디어 공급자를 위한 얼굴 영상의 데이터베이스 관리와 같은 응용분야에 이용될 수 있다. 본 논문에서는 비디오 등장인물을 자동으로 검색하는 얼굴검출 기법을 제안한다. 본 논문에서 제안한 얼굴검출 기법은 크게 세 단계로 구성하였다. 첫 번째, 정지 영상을 생성한 후 장면전환점 검출단계, 두 번째, 색상정보를 이용한 얼굴검출 단계, 마지막으로 얼굴영역을 이용한 얼굴 특징점 검출단계로 구성하였다. 실험결과 다양한 환경에서 성공적으로 얼굴을 검출하였으며, 기존의 색상정보를 이용한 얼굴 검출기법보다 성능이 개선된 것을 확인할 수 있었다.

A Study on the Realization of Virtual Simulation Face Based on Artificial Intelligence

  • Zheng-Dong Hou;Ki-Hong Kim;Gao-He Zhang;Peng-Hui Li
    • Journal of information and communication convergence engineering
    • /
    • 제21권2호
    • /
    • pp.152-158
    • /
    • 2023
  • In recent years, as computer-generated imagery has been applied to more industries, realistic facial animation is one of the important research topics. The current solution for realistic facial animation is to create realistic rendered 3D characters, but the 3D characters created by traditional methods are always different from the actual characters and require high cost in terms of staff and time. Deepfake technology can achieve the effect of realistic faces and replicate facial animation. The facial details and animations are automatically done by the computer after the AI model is trained, and the AI model can be reused, thus reducing the human and time costs of realistic face animation. In addition, this study summarizes the way human face information is captured and proposes a new workflow for video to image conversion and demonstrates that the new work scheme can obtain higher quality images and exchange effects by evaluating the quality of No Reference Image Quality Assessment.

표정 강도에 강건한 얼굴 표정 인식 (Robust Facial Expression-Recognition Against Various Expression Intensity)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.395-402
    • /
    • 2009
  • 본 연구는 표정 인식률을 개선하기 위한, 강도가 다른 표정을 인식하는 새로운 표정 인식 방법을 제안한다. 사람마다 다르게 나타나는 표정과 표정마다 다른 강도는 표정 인식률 저하에 지대한 영향을 미친다. 하지만 얼굴 표정의 다양한 강도를 처리하는 방법은 많이 제시되지 않고 있다. 본 연구에서는 표정 템플릿과 표정 강도 분포모델을 이용하여 다양한 얼굴 표정 강도를 인식하는 방법을 제시한다. 표정 템플릿과 표정강도 분포모델은 얼굴의 특징 부위에 표시한 관심 점과 얼굴 특징 부위간의 움직임이 다른 표정과 강도에 따라 어떻게 달라지는지 설명하여 표정 인식률 개선에 기여한다. 제안 방법은 정지 이미지뿐만 아니라 비디오시퀀스에서도 빠른 측정 과정을 통해 다양한 강도의 표정을 인식할 수 있는 장점이 있다. 실험 결과, 제안 연구가 특히 약한 강도의 표정에 대해 타 방법보다 높은 인식 결과를 보여 제안 방법이 다양한 강도의 표정 인식에 강건함을 알 수 있다.

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.

Multiple Face Segmentation and Tracking Based on Robust Hausdorff Distance Matching

  • Park, Chang-Woo;Kim, Young-Ouk;Sung, Ha-Gyeong
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.632-635
    • /
    • 2003
  • This paper describes a system fur tracking multiple faces in an input video sequence using facial convex hull based facial segmentation and robust hausdorff distance. The algorithm adapts skin color reference map in YCbCr color space and hair color reference map in RGB color space for classifying face region. Then, we obtain an initial face model with preprocessing and convex hull. For tracking, this algorithm computes displacement of the point set between frames using a robust hausdorff distance and the best possible displacement is selected. Finally, the initial face model is updated using the displacement. We provide an example to illustrate the proposed tracking algorithm, which efficiently tracks rotating and zooming faces as well as existing multiple faces in video sequences obtained from CCD camera.

  • PDF

Convex hull과 Robust Hausdorff Distance를 이용한 실시간 얼굴 트래킹 (A New Face Tracking Algorithm Using Convex-hull and Hausdorff Distance)

  • 박민식;박창우;박민용
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 합동 추계학술대회 논문집 정보 및 제어부문
    • /
    • pp.438-441
    • /
    • 2001
  • This paper describes a system for tracking a face in a input video sequence using facial convex hull based facial segmentation and a robust hausdorff distance. The algorithm adapts YCbCr color model for classifying face region by [l]. Then, we obtain an initial face model with preprocessing and convex hull. For tracking, a Robust Hausdorff distance is computed and the best possible displacement is selected. Finally, the previous face model is updated using the displacement t. It is robust to some noises and outliers. We provide an example to illustrate the proposed tracking algorithm in video sequences obtained from CCD camera.

  • PDF

Multiple Face Segmentation and Tracking Based on Robust Hausdorff Distance Matching

  • Park, Chang-Woo;Kim, Young-Ouk;Sung, Ha-Gyeong;Park, Mignon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제3권1호
    • /
    • pp.87-92
    • /
    • 2003
  • This paper describes a system for tracking multiple faces in an input video sequence using facial convex hull based facial segmentation and robust hausdorff distance. The algorithm adapts skin color reference map in YCbCr color space and hair color reference map in RGB color space for classifying face region. Then, we obtain an initial face model with preprocessing and convex hull. For tracking, this algorithm computes displacement of the point set between frames using a robust hausdorff distance and the best possible displacement is selected. Finally, the initial face model is updated using the displacement. We provide an example to illustrate the proposed tracking algorithm, which efficiently tracks rotating and zooming faces as well as existing multiple faces in video sequences obtained from CCD camera.

Non-Contact Heart Rate Monitoring from Face Video Utilizing Color Intensity

  • Sahin, Sarker Md;Deng, Qikang;Castelo, Jose;Lee, DoHoon
    • Journal of Multimedia Information System
    • /
    • 제8권1호
    • /
    • pp.1-10
    • /
    • 2021
  • Heart Rate is a crucial physiological parameter that provides basic information about the state of the human body in the cardiovascular system, as well as in medical diagnostics and fitness assessments. At present day, it has been demonstrated that facial video-based photoplethysmographic signal captured using a low-cost RGB camera is possible to retrieve remote heart rate. Traditional heart rate measurement is mostly obtained by direct contact with the human body, therefore, it can result inconvenient for long-term measurement due to the discomfort that it causes to the subject. In this paper, we propose a non-contact-based remote heart rate measuring approach of the subject which depends on the color intensity variation of the subject's facial skin. The proposed method is applied in two regions of the subject's face, forehead and cheeks. For this, three different algorithms are used to measure the heart rate. i.e., Fast Fourier Transform (FFT), Independent Component Analysis (ICA) and Principal Component Analysis (PCA). The average accuracy for the three algorithms utilizing the proposed method was 89.25% in both regions. It is also noteworthy that the FastICA algorithm showed a higher average accuracy of more than 92% in both regions. The proposed method obtained 1.94% higher average accuracy than the traditional method based on average color value.