• 제목/요약/키워드: Illumination variance

검색결과 32건 처리시간 0.024초

조명 변화 환경에서 PCA 기반 얼굴인식 알고리즘의 신뢰도에 대한 연구 (Study on The Confidence Level of PCA-based Face Recognition Under Variable illumination Condition)

  • 조현종;강민구;문승빈
    • 전자공학회논문지CI
    • /
    • 제46권2호
    • /
    • pp.19-26
    • /
    • 2009
  • 본 논문은 PCA기반 얼굴인식 알고리즘에서 조명 변화에 따른 인식율의 변화 및 Cumulative Match Characteristic을 이용한 누적 식별 값 측정을 통해 알고리즘의 신뢰도를 확인하였다. 이를 위해 본 논문에서는 한 사람당 하나의 학습 영상만을 사용하는 경우뿐만 아니라 조명 조건이 다른 다중 학습 영상을 사용하여 실험하였고, 입력 영상 또한 다양한 조명 조건의 영상을 사용함으로서 학습 영상의 선택과 입력 영상의 조명 변화에 따른 알고리즘의 신뢰도에 관해 연구하였다. 실험 결과, 한사람 당 하나의 정면조명조건 학습 영상을 사용한 방식에 비하여 다중 학습 영상 사용 시 인식율은 떨어졌다. 그러나 학습 영상의 개수와 입력 영상의 조명 변화 범위에 관계없이 상위 유사도군에 들어가는 비율은 높은 양상을 보임으로서 조명 변화 환경에서 PCA 알고리즘의 인식 결과에 대한 신뢰도를 확인 할 수 있었다.

객체의 색상 항등성을 위한 조명 모델 응용에 관한 연구 (A Study on Application of Illumination Models for Color Constancy of Objects)

  • 박창민
    • 디지털산업정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.125-133
    • /
    • 2017
  • Color in an image is determined by illuminant and surface reflectance. So, to recover unique color of object, estimation of exact illuminant is needed. In this study, the illumination models suggested to get the object color constancy with the physical illumination model based on physical phenomena. Their characteristics and application limits are presented and the necessity of an extended illumination model is suggested to get more appropriate object colors recovered. The extended illumination model should contain an additional term for the ambient light in order to account for spatial variance of illumination in object images. Its necessity is verified through an experiment under simple lighting environment in this study. Finally, a reconstruction method for recovering input images under standard white light illumination is experimented and an useful method for computing object color reflectivity is suggested and experimented which can be induced from combination of the existing illumination models.

조명 변화 감지에 의한 영상 콘트라스트 개선 (Image Contrast Enhancement by Illumination Change Detection)

  • 바잉뭉흐 어드게렐;이창훈
    • 한국지능시스템학회논문지
    • /
    • 제24권2호
    • /
    • pp.155-160
    • /
    • 2014
  • 영상처리를 통한 이동 물체 인식과 화질 개선 등의 연구에서 조명 변화가 성능에 큰 영향을 미치기 때문에 조명 변환에 대한 대응은 컴퓨터 비전 응용 분야에서의 중요한 관심사 중 하나이다. 조명 변화를 감지할 수 있게 되면 변화가 있는 시점에서부터 적절한 개선 알고리즘을 적용함으로써 인식률 향상 및 화질 개선 효과를 증대시킬 수 있다. 이에 본 연구에서는 급격한 조명 변화를 감지함에 있어 실시간성을 얻기 위하여 지역 정보를 이요하고 퍼지 논리를 도입하여 이를 효과적으로 감지하는 방법을 제안한다. 급격한 조명 변화를 감지하는 효과적인 방법으로 모서리 영역과 가운데 영역에 대한 각각의 히스토그램의 평균과 편차, 그리고 변화 추이를 반영하기 위하여 이전 프레임의 각 영역에 대한 히스토그램의 평균과 편차와의 변화량을 입력으로 급격한 조명 변화가 있을 때 입력 값의 변화 패턴을 퍼지 규칙으로 만들어 조명 변화를 감지하도록 하였다. 또한 움직이는 물체에 가려 발생하는 변화와 구별하기 위하여 전체 영역에 대한 평균과 편차 변화량을 도입하여 논리적으로 추론하여 차이를 구별할 수 있도록 하였고 점진적으로 조명이 변화하는 것을 감지할 수 있도록 하였다. 다양한 테스트 데이터에 대해 객관적인 정확도 측정 기법을 이용하여 민감도와 특이도를 계산하여 제안한 방법의 효용성을 보였다. 적응형 뉴로-퍼지 추론시스템을 도입하여 대비제한 적응 히스토그램 평활화 (CLAHE)의 매개 변수를 자동으로 선택할 수 있는 방법을 제안하여 급격한 조명의 변화를 감지한 결과를 바탕으로 화질을 개선할 수 있음을 보였다.

동적 환경에서의 립리딩 인식성능저하 요인분석에 대한 연구 (A Study on Analysis of Variant Factors of Recognition Performance for Lip-reading at Dynamic Environment)

  • 신도성;김진영;이주헌
    • 한국음향학회지
    • /
    • 제21권5호
    • /
    • pp.471-477
    • /
    • 2002
  • 최근 립리딩에 대한 연구는 음성인식방법에 있어서 부가적인 정보를 제공하여 잡음환경에서 견인한 음성 인식을 하거나 음성정보의 부가적인 특징벡터로 사용하기 위한 방법으로 연구되고 있다. 그러나 립리딩 연구의 대부분은 실험실 환경하의 제한된 결과로서, 실제 다양한 동적 환경에서의 견인성에 대해서는 연구된 바가 없다. 현재 우리는 입술정보만을 이용한 자동22단어 인식기를 만들었으며, 이미지 기반 립리딩의 성능은 53.54%의 성능을 가지고 있다. 본 연구에서는 기 구현된 립리딩 시스템을 기반으로 하여, 립리딩 성능이 환경 적인 변화에 대해서 얼마나 안정할 수 있는지, 그리고 립리딩의 인식성능 저하를 일으키는 주요 요인이 무엇인지에 대하여 연구하였다. 입술이미지의 동적 변이로서는 이동, 회전. 크기변화와 같은 공간적 변화와 빛에 의한 조명변화를 고려하였다. 실험용 데이터로는 영상변환에 의한 시뮬레이션 된 데이터와 동적 변화가 심한 자동차 환경에서 수집한 데이터를 사용하였다. 실험결과 입술의 공간 변화가 인식성능 저하의 한가지 요인으로 작용함을 발견하였다. 그러나 실제적으로 공간변화보다 더 심각한 성능저하 원인은 시간흐름에 따른 조명조건의 변화로써 70%이상의 왜곡이 발생했다. 따라서 신뢰할 수 있는 립리딩 시스템 구현을 위해서 고려해야 할 가장 큰 요인은 빛의 변화임을 발견할 수 있었다.

음성인식기 성능 향상을 위한 영상기반 음성구간 검출 및 적응적 문턱값 추정 (Visual Voice Activity Detection and Adaptive Threshold Estimation for Speech Recognition)

  • 송태엽;이경선;김성수;이재원;고한석
    • 한국음향학회지
    • /
    • 제34권4호
    • /
    • pp.321-327
    • /
    • 2015
  • 본 연구에서는 음성인식기 성능향상을 위한 영상기반 음성구간 검출방법을 제안한다. 기존의 광류기반 방법은 조도변화에 대응하지 못하고 연산량이 많아서 이동형 플렛홈에 적용되는 스마트 기기에 적용하는데 어려움이 있고, 카오스 이론 기반 방법은 조도변화에 강인하지만 차량 움직임 및 입술 검출의 부정확성으로 인해 발생하는 오검출이 발생하는 문제점이 있다. 본 연구에서는 기존 영상기반 음성구간 검출 알고리즘의 문제점을 해결하기 위해 지역 분산 히스토그램(Local Variance Histogram, LVH)과 적응적 문턱값 추정 방법을 이용한 음성구간 검출 알고리즘을 제안한다. 제안된 방법은 조도 변화에 따른 픽셀 변화에 강인하고 연산속도가 빠르며 적응적 문턱값을 사용하여 조도변화 및 움직임이 큰 차량 운전자의 발화를 강인하게 검출할 수 있다. 이동중인 차량에서 촬영한 운전자의 동영상을 이용하여 성능을 측정한 결과 제안한 방법이 기존의 방법에 비하여 성능이 우수함을 확인하였다.

주행 로봇을 위한 단일 카메라 영상에서 손든 자세 검출 알고리즘 (Hand Raising Pose Detection in the Images of a Single Camera for Mobile Robot)

  • 권기일
    • 로봇학회논문지
    • /
    • 제10권4호
    • /
    • pp.223-229
    • /
    • 2015
  • This paper proposes a novel method for detection of hand raising poses from images acquired from a single camera attached to a mobile robot that navigates unknown dynamic environments. Due to unconstrained illumination, a high level of variance in human appearances and unpredictable backgrounds, detecting hand raising gestures from an image acquired from a camera attached to a mobile robot is very challenging. The proposed method first detects faces to determine the region of interest (ROI), and in this ROI, we detect hands by using a HOG-based hand detector. By using the color distribution of the face region, we evaluate each candidate in the detected hand region. To deal with cases of failure in face detection, we also use a HOG-based hand raising pose detector. Unlike other hand raising pose detector systems, we evaluate our algorithm with images acquired from the camera and images obtained from the Internet that contain unknown backgrounds and unconstrained illumination. The level of variance in hand raising poses in these images is very high. Our experiment results show that the proposed method robustly detects hand raising poses in complex backgrounds and unknown lighting conditions.

빈도수를 고려한 눈동자색 분포맵에 기반한 조명 변화에 강건한 얼굴 검출 방법 (Face Detection based on Pupil Color Distribution Maps with the Frequency under the Illumination Variance)

  • 조한수
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.225-232
    • /
    • 2009
  • 본 논문에서는 빈도수를 고려한 눈동자색 분포맵에 기반한 조명변화에 강건한 얼굴 검출 방법을 제안한다. 제안한 방법은 먼저, 피부색 분포맵을 이용하여 검출된 얼굴 후보영역에서 색상성분의 편차를 이용하여 얼굴 후보영역을 축소한다. 이 영역에서 눈 후보점을 탐색하기 위해 눈동자색 분포맵을 적용하여 눈 후보영역을 검출한다. 검출된 눈 후보영역은 조명 보정 기법과 분할 알고리즘에 따라 눈 후보영역을 반복적으로 분할함으로써 조명의 영향으로 얼굴 영역이 아주 어두운 경우에도 눈 검출 성능을 향상할 수 있다. 분할된 눈 후보영역에서 템플릿 정합방법으로 눈 후보점을 검출하고 두 눈 후보점 쌍과 입 평가치를 이용하여 얼굴을 검출하였다. 실험결과 제안된 방법은 좋은 성능을 보였다.

  • PDF

색상기반 주목연산자를 이용한 정규화된 얼굴요소영역 추출 (Normalized Region Extraction of Facial Features by Using Hue-Based Attention Operator)

  • 정의정;김종화;전준형;최흥문
    • 한국통신학회논문지
    • /
    • 제29권6C호
    • /
    • pp.815-823
    • /
    • 2004
  • 색상(hue) 기반 주목연산자와 조합누적투영함수(combinational integral projection function: CIPF)를 제안하여 조명변화에 강건하게 정규화된 얼굴요소영역을 추출하였다. 살색 필터를 도입하여 얼굴후보영역들을 추출하고, 거기에 색상과 대칭성에 기반한 주목연산자를 적용하여 조명변화에 강건하게 두 눈의 위치를 정확히 검출할 수 있도록 하였으며, 색상기반 눈 분산 필터로 눈을 검증하여 얼굴영역을 확인하였다. 또한, 색상과 밝기 성분을 조합한 조합누적투영함수를 사용하여 두 눈의 위치를 기준으로 조명변화나 수염의 존재유무에 둔감하게 눈썹 및 입의 수직위치를 구하고, 이를 바탕으로 정규화된 얼굴영역 및 그 요소영역을 추출하였다. AR 얼굴 데이터베이스[8]에 제안한 색상기반 주목연산자를 적용한 결과 기존 명도기반 주목연산자에 비해 약 39.3%의 눈 검출 성능향상을 보임으로써 조명방향 변화에 강건하게 정규화된 얼굴 및 그 요소영역을 일관성 있게 추출할 수 있음을 확인하였다.

텍스쳐 분류 및 검출을 위한 강인한 특징이미지에 관한 연구 (A study on Robust Feature Image for Texture Classification and Detection)

  • 김영섭;안종영;김상범;허강인
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.133-138
    • /
    • 2010
  • 본 논문에서는 이미지에 대한 공간 특성(Spatial properties) 및 통계적 특성(Statistical properties)을 포함한 특징이미지를 구성하고, 지역 분산 크기를 이용한 공분산 행렬을 생성하여 텍스쳐 분류에 이용함으로서 조도(illumination) 및 노이즈(Noise) 그리고 회전(Rotation)에 강인한 텍스쳐 분류 방법을 제안한다. 또한 영역 합계의 빠른 연산을 위해 사용된 중간 이미지 표현인 적분 이미지(Integral Image)를 이용함으로서 텍스쳐 검출 프로세스의 수행 시간을 최소화 하는 방법을 제공한다. 제안한 방법의 성능 평가를 위해 브로다츠(Brodatz) 질감 이미지를 이용하여 잡음 추가 및 히스토그램 명세화 그리고 회전 이미지를 생성하여 실험하였으며, 96% 이상의 성능을 얻을 수 있었다.

효과적인 얼굴 인식을 위한 특징 분포 및 적응적 인식기 (Feature Variance and Adaptive classifier for Efficient Face Recognition)

  • ;남미영;이필규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.34-37
    • /
    • 2007
  • Face recognition is still a challenging problem in pattern recognition field which is affected by different factors such as facial expression, illumination, pose etc. The facial feature such as eyes, nose, and mouth constitute a complete face. Mouth feature of face is under the undesirable effect of facial expression as many factors contribute the low performance. We proposed a new approach for face recognition under facial expression applying two cascaded classifiers to improve recognition rate. All facial expression images are treated by general purpose classifier at first stage. All rejected images (applying threshold) are used for adaptation using GA for improvement in recognition rate. We apply Gabor Wavelet as a general classifier and Gabor wavelet with Genetic Algorithm for adaptation under expression variance to solve this issue. We have designed, implemented and demonstrated our proposed approach addressing this issue. FERET face image dataset have been chosen for training and testing and we have achieved a very good success.