• 제목/요약/키워드: 얼굴 검출 기술

검색결과 181건 처리시간 0.032초

무인 접수 인터페이스를 위한 얼굴인식 시스템 (Face Recognition System for Unattended reception interface)

  • 박세현;류정탁
    • 한국산업정보학회논문지
    • /
    • 제17권3호
    • /
    • pp.1-7
    • /
    • 2012
  • 개인 정보가 중요한 사용자 증명 수단으로서 활용됨에 따라 신뢰 할 수 있는 인증수단이 요구 되면서 최근에는 사람의 신체 일부를 비밀 번호처럼 사용하는 생체 인식 시스템에 대한 연구가 많이 시도되고 있다. 개인 얼굴의 특징을 이용하는 얼굴 인식 기술은 특징점 추출이 용이하여 많이 활용되고 있다. 본 논문에서는 무선접수 인터페이스를 위한 얼굴인식 시스템을 구현하였다. 제안된 시스템은 사용자 인증 을 위해 크게 얼굴 검출과 얼굴 인식으로 나누고 있다. 먼저 피부색 색상 정보와 Haar-like feature를 이용하여 얼굴을 추출한다. 다음 으로 얼굴 인식을 위해 PCA와 LDA를 조합하는 방법을 사용한다. 개발된 시스템을 이용하여 무인접수 인터페이스에 적용 가능함을 보였다.

딥 러닝 기반의 가짜 얼굴 검출 (Deep Learning Based Fake Face Detection)

  • 김대희;최승완;곽수영
    • 한국산업정보학회논문지
    • /
    • 제23권5호
    • /
    • pp.9-17
    • /
    • 2018
  • 최근 바이오인식 기술이 대중화됨에 따라 위 변조에 대응하는 연구 및 시도들이 많이 진행되고 있다. 본 논문에서 인공지능으로 만든 합성된 얼굴을 진짜 얼굴인지 합성된 가짜 얼굴인지를 판별하는 방법을 제안하고자 한다. 제안하는 알고리즘은 크게 2가지 단계로 구성되어 있다. 먼저, 실제 얼굴 사진에 여러 가지 GAN(Generative Adversarial Networks)알고리즘을 통해 합성된 가짜 얼굴을 생성하게 된다. 이후, 실제 얼굴 영상과 생성된 얼굴 영상을 딥러닝 알고리즘에 입력하여 진짜 또는 가짜인지 판별하도록 한다. 제안한 알고리즘은 실제 육안으로도 구별하기 어려운 합성 영상도 잘 구분하고, 테스트 결과 88.7%의 정확도를 확인하였다.

안드로이드 환경의 다중생체인식 기술을 응용한 인증 성능 개선 연구 (Enhancement of Authentication Performance based on Multimodal Biometrics for Android Platform)

  • 최성필;정강훈;문현준
    • 한국멀티미디어학회논문지
    • /
    • 제16권3호
    • /
    • pp.302-308
    • /
    • 2013
  • 본 논문은 모바일 환경에서의 다중생체인식을 통한 개인인증 시나리오에서 false acceptance rate (FAR)가 향상된 시스템을 제안한다. 다중생체인식을 위하여 얼굴인식과 화자인식을 선택하였으며, 시스템의 인식 시나리오는 다음을 따른다. 얼굴인식을 위하여 Modified census transform (MCT) 기반의 얼굴검출과 k-means 클러스터 분석 (cluster analysis) 알고리즘 기반의 눈 검출을 통해 얼굴영역 전처리를 수행하고, principal component analysis (PCA) 기반의 얼굴인증 시스템을 구현한다. 화자인식을 위하여 음성의 끝점추출과 Mel frequency cepstral coefficient (MFCC) 특징을 추출하고, dynamic time warping (DTW) 기반의 화자 인증 시스템을 구현한다. 그리고 각각의 생체인식을 본 논문에서 제안된 방법을 기반으로 융합하여 인식률을 향상시킨다. 본 논문의 실험은 Android 환경에서 수행하였으며, 구현한 다중생체인식 시스템과 단일생체인식 시스템과의 FAR을 비교하였다. 단일 얼굴인식의 FAR은 4.6%, 단일 화자인식의 FAR은 6.7%로 각각 나타났으며, 제안된 다중생체인식 시스템의 FAR은 1.8%로 크게 감소하였다.

영상처리 기술을 이용한 치과용 로봇 조명장치의 개발 (Development of Dental Light Robotic System using Image Processing Technology)

  • 문현일;김명남;이규복
    • 구강회복응용과학지
    • /
    • 제26권3호
    • /
    • pp.285-296
    • /
    • 2010
  • 본 연구에서는 영상처리 기술을 활용한 치과용 로봇 조명장치를 개발하여 그 정확도를 측정하여 보고자 한다. 본 연구를 통해 개발된 치과용 로봇 조명장치는 환자의 얼굴을 카메라로 인식을 하여 구강의 위치를 찾아 로봇이 움직여 라이트를 비추게 하는 것으로서 모션 제어 부, 라이트 제어 부, 영상 처리부로 구성되어 있다. 카메라로 영상을 획득 후 동작변화 영상을 추출 한 다음 아다부스트 알고리즘(Adaboost algorithm)을 통해, 얼굴 검출에 필요한 특징을 추출하여 실시간으로 얼굴 영역을 검출하도록 하였다. 영상처리를 통한 환자 구강의 추출 실험 시 정면영상에서 높은 얼굴인식률을 나타냈고 얼굴영역이 인식이 되면, 안정적인 라이트 로봇 암(Light robot arm)의 제어가 가능했다.

방송 요약을 위한 중요 프레임 및 비 중요 프레임 검출 (Exciting and unexciting shot detection in commercial broadcast stream)

  • 이웅규;이제민;정현종;송인선;낭종호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(A)
    • /
    • pp.331-333
    • /
    • 2012
  • 동영상 데이터에는 요약을 통하여 한눈에 알 수 있도록 하는 기술을 필요로 한다. 그 중 방송용 스트림(stream) 서비스의 경우 그 활용을 더욱 필요로 하고 있다. 여러 채널을 공유하는 TV에서는 각 채널이 무슨 방송을 하고 있는지 중요한 이슈가 된다. 이런 동영상 요약에서 키 프레임(key frame)을 찾는 기술이나 키 프레임과 거리가 먼 프레임을 찾아내는 기술이 필요하다. 이 논문에서는 키 프레임과 비 중요 프레임을 정의하고 그 프레임들을 검출하는 연구에 대하여 소개한다. 비 중요 프레임의 경우 칼라 히스토그램(color histogram)을 분석하여 실제 테스트 이미지들과의 차이점을 분석한다. 키 프레임의 경우 얼굴 검출(face detection)과 샷 변경 검출(shot change detection)의 기술을 이용하여 자동으로 추출하도록 하고 그 성능을 측정하도록 한다.

생체기반 GMM Supervector Kernel을 이용한 운전자검증 기술 (Driver Verification System Using Biometrical GMM Supervector Kernel)

  • 김형국
    • 한국ITS학회 논문지
    • /
    • 제9권3호
    • /
    • pp.67-72
    • /
    • 2010
  • 본 논문에서는 음성과 얼굴 정보를 분석하여 자동차환경에서 운전자를 검증하는 기술을 소개한다. 음성정보를 이용한 화자검증을 위해서는 잘 알려진 Mel-scale Frequency Cepstral Coefficients(MFCCs)를 음성 특징으로 사용하였으며, 동영상을 이용한 얼굴검증에 대해서는 AdaBoost를 이용하여 검출된 얼굴 영역에 대해 주성분 분석을 수행하여 데이터의 크기가 현저히 줄어든 특징벡터를 추출하였다. 기존의 화자검증 방식에 비해 본 논문에서는 추출된 음성 및 얼굴 특징들을 Gaussian Mixture Models(GMM)-Supervector기반의 Support Vector Machine(SVM)커넬 방식에 적용하여 운전자의 음성과 얼굴을 효과적으로 검증하는 방식을 제안하였다. 실험결과 제안한 방법은 단순한 GMM 방식이나 SVM 방식보다 운전자 검증성능을 향상시킴을 알 수 있었다.

허프 변환과 분리필터를 이용한 홍채 검출 (Iris detection using Hough transform and separable filter)

  • 김태우;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권2호
    • /
    • pp.3-11
    • /
    • 2010
  • 본 논문에서는 얼굴에서 양 눈의 홍채를 검출하기 위한 새로운 알고리즘을 제안하고자 한다. 제안된 방법은 분리 필터를 이용하여 소영역을 먼저 추출하고, 그 중 쌍을 이루고 있는 소영역에 대하여 허프 변환과 분리 필터 값을 연산한다. 제안된 알고리즘은 허프 변환과 분리 필터 값을 최소로 하는 소영역 쌍을 선택하여 양 눈의 홍채로 검출하게 된다. 안경을 착용하지 않은 150장의 얼굴영상을 가지고 제안된 방법으로 실험한 결과 최고 97.3%, 최저 95.3%의 성공률을 얻을 수 있었다.

  • PDF

PC카메라를 이용한 실시간 립리딩 시스템 설계 및 구현 (Design & Implementation of Real-Time Lipreading System using PC Camera)

  • 이은숙;이지근;이상설;정성태
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(상)
    • /
    • pp.310-313
    • /
    • 2003
  • 최근 들어 립리딩은 멀티모달 인터페이스 기술의 응용분야에서 많은 관심을 모으고 있다. 동적영상을 이용한 립리딩 시스템에서 해결해야 할 주된 문제점은 상황 변화에 독립적으로 얼굴 영역과 입술 영역을 추출하고 오프라인이 아닌 실시간으로 입력된 입술 영상의 인식을 처리하여 립리딩의 사용도를 높이는 것이다. 본 논문에서는 사용자가 쉽게 사용할 수 있는 PC카메라를 사용하여 영상을 입력받아 학습과 인식을 실시간으로 처리하는 립리딩 시스템을 구현하였다. 본 논문에서는 움직임이 있는 화자의 얼굴영역과 입술영역을 컬러, 조명등의 변화에 독립적으로 추출하기 위해 HSI모델을 이용하였다. 입력 영상에서 일정한 크기의 영역에 대한 색도 히스토그램 모델을 만들어 색도 영상에 적용함으로써 얼굴영역의 확률 분포를 구하였고, Mean-Shift Algorithm을 이용하여 얼굴영역의 검출과 추적을 하였다. 특징 점 추출에는 이미지 기반 방법인 PCA 기법을 이용하였고, HMM 기반 패턴 인식을 사용하여 실시간으로 실험영상데이터에 대한 학습과 인식을 수행할 수 있었다.

  • PDF

오디오 기반 인간로봇 상호작용 기술 (Audio-Based Human-Robot Interaction Technology)

  • 곽근창;김혜진;배경숙;윤호섭
    • 전자통신동향분석
    • /
    • 제22권2호통권104호
    • /
    • pp.31-37
    • /
    • 2007
  • 인간로봇 상호작용 기술(human-robot interaction)은 다양한 의사소통 채널인 로봇카메라, 마이크로폰, 기타 센서를 통해 인지 및 정서적으로 상호작용할 수 있도록 로봇시스템 및 상호작용 환경을 디자인하고 구현 및 평가하는 지능형 서비스 로봇의 핵심기술이다. 본 고에서는 오디오 기반 인간로봇 상호작용 기술 중에서 음원 추적(sound localization)과 화자인식(speaker recognition) 기술의 국내외 기술동향을 살펴보고 최근 ETRI 지능형로봇연구단에서 상용화를 추진중인 시청각 기반 음원 추적(audio visual sound localization)과 문장독립 화자인식(text-independent speaker recognition)기술들을 다룬다. 또한 이들 기술들을 가정환경에서 효과적으로 사용하기 위해 음성인식, 얼굴검출, 얼굴인식 등을 결합한 시나리오에 대해서 살펴본다.

임베디드 시스템용 Single Shot Multibox Detector Model 기반 적외선 열화상 영상의 객체검출 (Object Detection of Infrared Thermal Image Based on Single Shot Multibox Detector Model for Embedded System)

  • 나웅환;김응태
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.9-12
    • /
    • 2019
  • 지난 수 년 동안 계속해서 일반 실상 카메라를 이용한 영상분석기술에 대한 연구가 활발히 진행되고 있다. 최근에는 딥러닝 기술을 적용한 지능형 영상분석기술로 발전해 왔으며 국방기지방호, CCTV, 사용자 얼굴인식, 머신비전, 자동차, 드론 산업이 활성화되면서 많은 시너지를 효과를 일으키고 있다. 그러나 어두운 밤과 안개, 날씨, 연기 등 다양한 여건에서 따라서 카메라의 영상분석 정확성 감소와 오류가 수반될 수 있으며 일반적으로 딥러닝 기술을 활용하기 위해서는 고사양의 GPU를 필요로 하기 때문에 다른 추가적인 시스템이 요구된다. 이에 본 연구에서는 열적외선 영상의 객체 검출에 적용하기 위해 SSD(Single Shot MultiBox Detector) 기반의 경량적인 MobilNet 네트워크로 재구성하여, 모바일 기기 등 낮은 사양의 낮은 임베디드 시스템에서도 활용 할 수 있는 방법을 제안한다. 모의 실험결과 제안된 방식의 모델은 적외선 열화상 카메라에서 객체검출과 학습시간이 줄어든 것을 확인 할 수 있었다.

  • PDF