• Title/Summary/Keyword: 입술검출

Search Result 51, Processing Time 0.023 seconds

Detection Method of Human Face, Facial Components and Rotation Angle Using Color Value and Partial Template (컬러정보와 부분 템플릿을 이용한 얼굴영역, 요소 및 회전각 검출)

  • Lee, Mi-Ae;Park, Ki-Soo
    • The KIPS Transactions:PartB
    • /
    • v.10B no.4
    • /
    • pp.465-472
    • /
    • 2003
  • For an effective pre-treatment process of a face input image, it is necessary to detect each of face components, calculate the face area, and estimate the rotary angle of the face. A proposed method of this study can estimate an robust result under such renditions as some different levels of illumination, variable fate sizes, fate rotation angels, and background color similar to skin color of the face. The first step of the proposed method detects the estimated face area that can be calculated by both adapted skin color Information of the band-wide HSV color coordinate converted from RGB coordinate, and skin color Information using histogram. Using the results of the former processes, we can detect a lip area within an estimated face area. After estimating a rotary angle slope of the lip area along the X axis, the method determines the face shape based on face information. After detecting eyes in face area by matching a partial template which is made with both eyes, we can estimate Y axis rotary angle by calculating the eye´s locations in three dimensional space in the reference of the face area. As a result of the experiment on various face images, the effectuality of proposed algorithm was verified.

Face Detection for Automatic Avatar Creation by using Deformable Template and GA (Deformable Template과 GA를 이용한 얼굴 인식 및 아바타 자동 생성)

  • Park Tae-Young;Kwon Min-Su;Kang Hoon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.15 no.1
    • /
    • pp.110-115
    • /
    • 2005
  • This paper proposes the method to detect contours of a face, eyes and a mouth in a color image for making an avatar automatically. First, we use the HSI color model to exclude the effect of various light condition, and we find skin regions in an input image by using the skin color is defined on HS-plane. And then, we use deformable templates and Genetic Algorithm(GA) to detect contours of a face, eyes and a mouth. Deformable templates consist of B-spline curves and control point vectors. Those can represent various shape of a face, eyes and a mouth. And GA is very useful search procedure based on the mechanics of natural selection and natural genetics. Second, an avatar is created automatically by using contours and Fuzzy C-means clustering(FCM). FCM is used to reduce the number of face color As a result, we could create avatars like handmade caricatures which can represent the user's identity, differing from ones generated by the existing methods.

Audio-Visual Integration based Multi-modal Speech Recognition System (오디오-비디오 정보 융합을 통한 멀티 모달 음성 인식 시스템)

  • Lee, Sahng-Woon;Lee, Yeon-Chul;Hong, Hun-Sop;Yun, Bo-Hyun;Han, Mun-Sung
    • Annual Conference of KIPS
    • /
    • 2002.11a
    • /
    • pp.707-710
    • /
    • 2002
  • 본 논문은 오디오와 비디오 정보의 융합을 통한 멀티 모달 음성 인식 시스템을 제안한다. 음성 특징 정보와 영상 정보 특징의 융합을 통하여 잡음이 많은 환경에서 효율적으로 사람의 음성을 인식하는 시스템을 제안한다. 음성 특징 정보는 멜 필터 캡스트럼 계수(Mel Frequency Cepstrum Coefficients: MFCC)를 사용하며, 영상 특징 정보는 주성분 분석을 통해 얻어진 특징 벡터를 사용한다. 또한, 영상 정보 자체의 인식률 향상을 위해 피부 색깔 모델과 얼굴의 형태 정보를 이용하여 얼굴 영역을 찾은 후 강력한 입술 영역 추출 방법을 통해 입술 영역을 검출한다. 음성-영상 융합은 변형된 시간 지연 신경 회로망을 사용하여 초기 융합을 통해 이루어진다. 실험을 통해 음성과 영상의 정보 융합이 음성 정보만을 사용한 것 보다 대략 5%-20%의 성능 향상을 보여주고 있다.

  • PDF

Korean Lip Reading System Using MobileNet (MobileNet을 이용한 한국어 입모양 인식 시스템)

  • Won-Jong Lee;Joo-Ah Kim;Seo-Won Son;Dong Ho Kim
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.211-213
    • /
    • 2022
  • Lip Reading(독순술(讀脣術)) 이란 입술의 움직임을 보고 상대방이 무슨 말을 하는지 알아내는 기술이다. 본 논문에서는 MBC, SBS 뉴스 클로징 영상에서 쓰이는 문장 10개를 데이터로 사용하고 CNN(Convolutional Neural Network) 아키텍처 중 모바일 기기에서 동작을 목표로 한 MobileNet을 모델로 이용하여 발화자의 입모양을 통해 문장 인식 연구를 진행한 결과를 제시한다. 본 연구는 MobileNet과 LSTM을 활용하여 한국어 입모양을 인식하는데 목적이 있다. 본 연구에서는 뉴스 클로징 영상을 프레임 단위로 잘라 실험 문장 10개를 수집하여 데이터셋(Dataset)을 만들고 발화한 입력 영상으로부터 입술 인식과 검출을 한 후, 전처리 과정을 수행한다. 이후 MobileNet과 LSTM을 이용하여 뉴스 클로징 문장을 발화하는 입모양을 학습 시킨 후 정확도를 알아보는 실험을 진행하였다.

  • PDF

Face Detection and Region Refinement using a CNN Model (CNN 모델을 이용한 얼굴 추출 및 보정 기법)

  • Cho Il-Gook;Kim Ho-Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.313-315
    • /
    • 2006
  • 본 연구에서는 실내에서 입력받은 영상의 조명과 크기 변화 등에 강인한 얼굴 검출 기법을 소개한다. 제안된 얼굴 검출 기법은 후보 영역 선정 과정과 얼굴패턴 검출 과정, 얼굴 영역 보정 과정으로 이루어진다. 후보 영역 선정 과정에서는 조명보정과 색상 필터, 움직임 필터를 이용하여 얼굴패턴의 후보 영역을 선정한다. 얼굴패턴 검출 과정에서는 CNN을 이용하여 특징을 추출하고, WFMM 신경망을 이용하여 얼굴 패턴을 검증한다. 얼굴 영역 보정 과정은 형태학적 연산 등의 영상 처리를 이용하여 눈 영역과 입술 영역의 위치를 판별한 후 최종적인 얼굴 영역을 결정한다.

  • PDF

Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition (딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계)

  • Shin, Dong-Wook;Moon, NamMee
    • Annual Conference of KIPS
    • /
    • 2022.05a
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

Eye Tracking and synthesize for MPEG-4 Coding (MPEG-4 코딩을 위한 눈 추적과 애니메이션)

  • Park, Dong-Hee;Bae, Cheol-Soo;Na, Sang-Dong
    • Annual Conference of KIPS
    • /
    • 2002.04a
    • /
    • pp.741-744
    • /
    • 2002
  • 본 논문에서는 3D 모델의 눈 변형을 계산하기 위해 검출된 눈 형태를 이용한 눈 움직임 합성 방법을 제안하였다. 얼굴 특징들의 정확한 위치 측정과 추적은 MPEG-4 코딩 시스템을 기반으로 한 고품질 모델 개발에 중요하다. 매우 낮은 비트율의 영상회의 응용에서 시간의 경과에 따라 눈과 입술의 움직임을 정확히 추적하기 위해 얼굴 특징들의 정확한 위치 측정과 추적이 필요하다. 이들의 움직임은 코딩되어지고 원격지로 전송되어 질 수 있다. 애니메이션 기술은 얼굴 모델에서 움직임을 합성하는데 이용되어진다. 본 논문에서는 얼굴 특징 검출과 추적 알고리즘으로 잘 알려지고, 효과적으로 향상시킬 수 있는 휴리스틱 방법을 제안하겠다. 본 논문에서는 눈 움직임의 검출뿐만 아니라 추적, 모델링에도 초점을 두었다.

  • PDF

Facial Features Detection Using Heuristic Cost Function (얼굴의 특성을 반영하는 휴리스틱 평가함수를 이용한 얼굴 특징 검출)

  • Jang, Gyeong-Sik
    • The KIPS Transactions:PartB
    • /
    • v.8B no.2
    • /
    • pp.183-188
    • /
    • 2001
  • 이 논문은 눈의 형태에 대한 정보를 이용하여 눈동자를 효과적으로 찾는 방법과 얼굴 특성을 반영하는 평가함수를 이용하여 눈동자, 입의 위치와 같은 얼굴 특징들을 인식하는 방법을 제안하였다. 색 정보를 이용하여 입술과 얼굴 영역을 추출하고 눈동자와 흰자위간의 명도 차를 이용하는 함수를 사용하여 눈동자를 인식하였다. 마지막으로 얼굴 특성을 반영하느 평가함수를 정의하고 이를 이용하여 최종적인 얼굴과 눈, 입을 인식하였다. 제안한 방법을 사용하여 여러 영상들에 대해 실험하여 좋은 결과를 얻었다.

  • PDF

An Automatic Smile Analysis System for Smile Self-training (자가 미소 훈련을 위한 자동 미소 분석 시스템)

  • Song, Won-Chang;Kang, Sun-Kyung;Jung, Tae-Sung
    • Journal of Korea Multimedia Society
    • /
    • v.14 no.11
    • /
    • pp.1373-1382
    • /
    • 2011
  • In this study, we propose an automated smile analysis system for self smile training. The proposed system detects the face area from the input image with the AdaBoost algorithm, followed by identifying facial features based on the face shape model generated by using an ASM(active shpae model). Once facial features are identified, the lip line and teeth area necessary for smile analysis are detected. It is necessary to judge the relationship between the lip line and teeth for smiling degree analysis, and to this end, the second differentiation of the teeth image is carried out, and then individual the teeth areas are identified by means of histogram projection on the vertical axis and horizontal axis. An analysis of the lip line and individual the teeth areas allows for an automated analysis of smiling degree of users, enabling users to check their smiling degree on a real time basis. The developed system in this study exhibited an error of 8.6% or below, compared to previous smile analysis results released by dental clinics for smile training, and it is expected to be used directly by users for smile training.

Visual Voice Activity Detection and Adaptive Threshold Estimation for Speech Recognition (음성인식기 성능 향상을 위한 영상기반 음성구간 검출 및 적응적 문턱값 추정)

  • Song, Taeyup;Lee, Kyungsun;Kim, Sung Soo;Lee, Jae-Won;Ko, Hanseok
    • The Journal of the Acoustical Society of Korea
    • /
    • v.34 no.4
    • /
    • pp.321-327
    • /
    • 2015
  • In this paper, we propose an algorithm for achieving robust Visual Voice Activity Detection (VVAD) for enhanced speech recognition. In conventional VVAD algorithms, the motion of lip region is found by applying an optical flow or Chaos inspired measures for detecting visual speech frames. The optical flow-based VVAD is difficult to be adopted to driving scenarios due to its computational complexity. While invariant to illumination changes, Chaos theory based VVAD method is sensitive to motion translations caused by driver's head movements. The proposed Local Variance Histogram (LVH) is robust to the pixel intensity changes from both illumination change and translation change. Hence, for improved performance in environmental changes, we adopt the novel threshold estimation using total variance change. In the experimental results, the proposed VVAD algorithm achieves robustness in various driving situations.