• Title/Summary/Keyword: 눈 영상비

Search Result 133, Processing Time 0.025 seconds

Face Detection and Facial Feature Extraction for Person Identification (신원확인을 위한 얼굴 영역 탐지 및 얼굴 구성 요소 추출)

  • 이선화;차의영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.517-519
    • /
    • 2001
  • 본 논문에서는 신원 확인 시스템을 위한 얼굴 영역 탐지 및 얼굴 구성 요소들을 추출하는 방법을 제안한다. 이 방법은 신원 확인을 위해 사용자가 시스템을 조작할 때, 움직임이 발생한다는 점과 눈 영역이 주위 영역에 비하여 뚜렷하게 어두운 화소들로 구성되어 있다는 점에 착안하였다. CCD 카메라로부터 입력되는 동영상에서 차영상 기법을 이용하여 얼굴 영역을 탐지하고, 탐지된 얼굴 영역 내에서 가장 안정적인 검출 결과를 보이는 눈 영역을 추출한다. 그리고 추출된 두 눈의 위치를 이용하여 전체 얼굴의 기울기를 보정한 수, 제안하는 가변 Ratio Template을 이용하여 검출된 얼굴영역을 검증하며 코, 입과 같은 다른 얼굴 구성 요소들을 추출한다. 이 방법은 명암의 변화에 따라 유동적인 결과를 산출해내는 이진화 과정을 거치지 않으므로 국부적인 조명이 밝기 변화나 얼굴의 기울기 변화와 같은 얼굴 인식의 제약점에 강인한 특징을 가진다.

  • PDF

A Study on 3D Graphics Registration of Image Sequences using Planar Surface (평면을 이용한 이미지 시퀀스에서의 3D 그래픽 정합에 대한 연구)

  • 김주완;장병태
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.190-192
    • /
    • 2003
  • 본 논문은 캘리브레이션 정보를 모르는 카메라로부터 얻은 시퀀스 영상에서 공간상에서 평면인 물체의영상 정보를 이용하여 카메라 내부 및 외부 파라미터를 추정하고, 이를 이용하여 가상의 3D 그래픽을 시퀀스 영상에 정합하는 방법을 제안한다. 제안된 방법은 기존의 방법에 비해 손쉽게 이미지에 가상의 3D 그래픽 오브젝트를 정합할 수 있으며, 눈에 보이는 정합오차를 최소화하며 DirectX와 같은 3D 그래픽 툴과 쉽게 연동이 되는 장정이 있다. 본 연구는 비디오와 같은 영상에 3D 영상을 합성하는 대화형 비디오 컨텐트 개발에 활용할 수 있을 것으로 기대된다.

  • PDF

Image Caption Area extraction using Saliency Map and Max Filter (중요도 맵과 최댓값 필터를 이용한 영상 자막 영역 추출)

  • Kim, Youngjin;Kim, Manbae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.63-64
    • /
    • 2014
  • 본 논문에서는 Saliency map과 Max Filter를 이용한 영상의 자막영역을 추출 한다. Saliency map은 눈에 띄는 영역, 즉 영상에서 주변영역에 비해 밝기 차이가 심한 영역과 윤곽선에 대한 특징이 강한 영역을 돌출하는 것을 말하며, MaxFilter는 중심 픽셀을 최대 윈도우 값을 사용하는 것으로 극단적인 Impulse Noise를 제거하는데 효과적이며 특히 어두운 스파이크를 제거하는데 유용하게 사용된다. 이 두 가지의 특징들을 이용하여 영상의 자막 영역을 추출한다.

  • PDF

An Effective Eye Location for Face Recognition (얼굴 인식을 위한 효과적인 눈 위치 추출)

  • Jung Jo Nam;Rhee Phill Kyu
    • The KIPS Transactions:PartB
    • /
    • v.12B no.2 s.98
    • /
    • pp.109-114
    • /
    • 2005
  • Many researchers have been interested in user authentication using biometric information, and face recognition is a lively field of study of ones in the latest biometric recognition field because of advantage that it can recognize who he/she is without touching machinery. This paper proposes method to extract eye location effectively at face detection step that is precedence work of face recognition. The iterative threshold selection was adopted to get a proper binary image and also the Gaussian filter was used to intensify the properties of eyes to extract an eye location. The correlation was adopted to verify if the eye location is correct or not. Extraction of an eye location that propose in paper as well as accuracy, considered so that may can apply to online system and showed satisfactory performance as result that apply to on line system.

A Study of None-reference Base Quality Measurement on HD Video (HDTV영상의 원본비참조 화질평가 방법)

  • Kim, Min-Gi;Park, Dea-Woo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.15 no.12
    • /
    • pp.2568-2574
    • /
    • 2011
  • 31 December 2012 will be the end of terrestrial analog broadcasting. Digital broadcasting will begin. The picture quality on analog broadcasting, was not a problem. but, In digital broadcasting, is a problem. Service for streaming on the digital broadcasting MPEG video compression. And the content is added block noise. These block noise measured by people's eyes. but, people's eyes is subjective. In this paper, the on-reference methods to detect block noise. And detected by measuring the distribution of block noise, to quantify the levels of block-noise. With this study, block noise by visual inspection using an automated tool, by being objective measure of information and communication will contribute to the development of the video.

Gender Classification using Non-Negative Matrix Analysis with Sparse Logistic Regression (Sparse Logistic Regression 기반 비음수 행렬 분석을 통한 성별 인식)

  • Hur, Dong-Cheol;Wallraven, Christian;Lee, Seong-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.373-376
    • /
    • 2011
  • 얼굴 영상에서 구성요소(눈썹, 눈, 코, 입 등)의 존재에 따라 보는 사람의 얼굴 인식 정확도는 큰 영향을 받는다. 이는 인간의 뇌에서 얼굴 정보를 처리하는 과정은 얼굴 전체 영역 뿐만 아니라, 부분적인 얼굴 구성요소의 특징들도 고려함을 말한다. 비음수 행렬 분해(NMF: Non-negative Matrix Factorization)는 이러한 얼굴 영역에서 부분적인 특징들을 잘 표현하는 기저영상들을 찾아내는데 효과적임을 보여주었으나, 각 기저영상들의 중요도는 알 수 없었다. 본 논문에서는 NMF로 찾아진 기저영상들에 대응되는 인코딩 정보를 SLR(Sparse Logistic Regression)을 이용하여 성별 인식에 중요한 부분 영역들을 찾고자 한다. 실험에서는 주성분분석(PCA)과 비교를 통해 NMF를 이용한 기저영상 및 특징 벡터 추출이 좋은 성능을 보여주고, 대표적 이진 분류 알고리즘인 SVM(Support Vector Machine)과 비교를 통해 SLR을 이용한 특징 벡터 선택이 나은 성능을 보여줌을 확인하였다. 또한 SLR로 확인된 각 기저영상에 대한 가중치를 통하여 인식 과정에서 중요한 얼굴 영역들을 확인할 수 있다.

A Study on the Image Based Traffic Information Extraction Algorithm in Bad Weather (악천후시의 영상기반 교통정보 추출에 관한 연구)

  • Lee, Deuk-Jae;U, Jang-Myeon;Choi, Gyu-Dam;Choi, Gi-Ho
    • 한국ITS학회:학술대회논문집
    • /
    • 2002.11a
    • /
    • pp.169-172
    • /
    • 2002
  • 차량검출에 관한 연구는 교통량 관측을 위해서 가장 기본적이고 필수적인 요소이다. 영상을 기반으로 한 교통 정보 시스템은 다른 방식을 이용하는 시스템들과 비교했을 때 여러가지 두드러진 장점을 가지고 있다. 하지만 일반적인 영상기반 시스템에서는 기상상태에 관해서 민감하게 반응하지 못하는 단점이 있다. 악천후가 발생하는 환경에서 영상의 노이즈는 차량의 교통정보 추출에 있어서 심각한 성능의 저하를 야기할 수 있다. 본 논문에서는 차량검출과 함께 기상 상태에 대해 영향을 덜 받는 향상된 차량정보 추출 방식을 제안 하였다. 제안된 방법은 에지를 기반으로 추출된 차량영상으로부터 비나 눈으로 인한 악천후 때문에 생긴 영상 잡음을 제거 하는 방식으로 기존의 방식에 비해 차량검출 정확도의 오류가 감소되었다. 본 논문에서 제안한 robust 한 차량검출 방법을 기반으로 하여 차량추적, 차량계수, 차종분류, 그리고 속도측정을 수행하여 각 도로의 부하르 나타내는 데 사용되는 차량 흐름과 관련되 여러 가지 교통 정보들을 추출하는데 응용될 수 있다.

  • PDF

Image Enhancement Algorithm using Dynamic Range Optimization (다이나믹 레인지 최적화를 통한 영상 화질 개선 알고리즘)

  • Song, Ki Sun;Kim, Min Sub;Kang, Moon Gi
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.53 no.6
    • /
    • pp.101-109
    • /
    • 2016
  • The images captured by digital still cameras or mobile phones are not always satisfactory because the devices have limited dynamic ranges compared with that of the real world. To cope with the problems, tone mapping function based methods and retinex theory based methods are studied. However, these methods generate a halo artifact or limited enhancement of global and local contrasts. The proposed method estimates illumination information used for image enhancement by optimizing a dynamic range of input image. The estimated illumination information has smoothness characteristic where the luminance is flat and does not have where the luminance changes to prevent the halo artifact. Additionally, the estimated illumination information and surrounding pixel values are considered when the tone mapping function is applied to overcome the limitations of the conventional tone mapping function approach. Experimental results show that the proposed algorithm outperforms the conventional methods on objective and subjective criteria.

Real-time vital signs measurement system using facial image on Mobile (모바일 환경에서 안면 영상을 이용한 실시간 생체징후 측정 시스템)

  • Kim, Dae Yeol;Kim, Jin-Soo;Lee, Kwang-Kee
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.94-97
    • /
    • 2020
  • 코로나 시대에 도래하며 비접촉 방식의 생체 징후에 대한 관심이 증가하고 있다. 본 연구는 비접촉식 측정 방식으로써 모바일 전면 카메라를 이용하여 심장박동, 심장 박동 변이율, 산소포화도, 호흡도, 스트레스 수치를 측정할 수 있는 효과적인 방법론을 제시하는 것이 목적이다. 모바일 전면부 카메라에서 실시간으로 안면 영상을 추출하기 위하여 Blaze Face를 이용하였으며, 안면 영상의 특징점인 눈, 코, 입, 귀의 위치를 이용하여 이마 부분의 관심 영역을 지정하였다. 관심 영역에서 색상 성분을 R, G, B로 분리하여 시간 축으로 정렬 후 fourier transform을 진행한 후 각각의 성분들을 측정하고자 하는 생체 징후에 맞게 Filter 처리함으로써 생체 징후를 측정하였다. 안면 영상을 이용한 생체 징후 측정 결과를 검증에 활용하기 위하여 실측 기기인 mCube-Healthcare device를 이용하였으며, 분석 결과 모바일에서 안면 영상을 통해 심장박동, 삼장 박동 변이율, 산소포화도, 호흡도, 스트레스 수치의 다섯 가지 생체 징후를 추출할 수 있는 가능성을 확인하였다.

  • PDF

A Study on Lip Detection based on Eye Localization for Visual Speech Recognition in Mobile Environment (모바일 환경에서의 시각 음성인식을 위한 눈 정위 기반 입술 탐지에 대한 연구)

  • Gyu, Song-Min;Pham, Thanh Trung;Kim, Jin-Young;Taek, Hwang-Sung
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.4
    • /
    • pp.478-484
    • /
    • 2009
  • Automatic speech recognition(ASR) is attractive technique in trend these day that seek convenient life. Although many approaches have been proposed for ASR but the performance is still not good in noisy environment. Now-a-days in the state of art in speech recognition, ASR uses not only the audio information but also the visual information. In this paper, We present a novel lip detection method for visual speech recognition in mobile environment. In order to apply visual information to speech recognition, we need to extract exact lip regions. Because eye-detection is more easy than lip-detection, we firstly detect positions of left and right eyes, then locate lip region roughly. After that we apply K-means clustering technique to devide that region into groups, than two lip corners and lip center are detected by choosing biggest one among clustered groups. Finally, we have shown the effectiveness of the proposed method through the experiments based on samsung AVSR database.