• 제목/요약/키워드: 얼굴영역검출

검색결과 516건 처리시간 0.024초

시청자 참여형 양방향 TV 방송을 위한 얼굴색 영역 및 모션맵 기반 포스처 인식 (Posture Recognition for a Bi-directional Participatory TV Program based on Face Color Region and Motion Map)

  • 황선희;임광용;이수웅;유호영;변혜란
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권8호
    • /
    • pp.549-554
    • /
    • 2015
  • 최근 자연스러운 인터페이스 하드웨어의 증가와 더불어 사용자의 자세를 인식하는 콘텐츠 산업이 부상하고 있다. 컴퓨터 비전 기술은 고가 하드웨어 장치의 대안으로 콘텐츠 산업의 발전에 효율적이다. 본 논문에서는 생방송으로 진행되는 시청자 참여형 양방향 TV 프로그램에 적합한 시청자의 포스처를 인식하는 방법을 제안한다. 제안하는 방법은 검출된 얼굴 위치에서 획득한 사용자 얼굴색과 모션맵을 사용하여 사용자의 손 위치를 안정적으로 검출하고, 위치 관계 분석을 통해 포스처를 인식한다. 제안하는 방법은 복잡한 배경에서도 생방송 양방향 TV 프로그램에서 사용되는 세 가지 자세를 인식하는데 90%의 인식 성능이 나타나는 것을 실험을 통해 확인하였다.

팬/틸트 탑제형 스테레오 카메라를 이용한 지능형 이동표적 추적 및 감시 시스템의 구현 (Implementation of Intelligent Moving Target Tracking and Surveillance System Using Pan/Tilt-embedded Stereo Camera System)

  • 고정환;이준호;김은수
    • 한국통신학회논문지
    • /
    • 제29권4C호
    • /
    • pp.514-523
    • /
    • 2004
  • 본 논문에서는 팬/틸트가 탑재된 스테레오 카메라를 이용한 새로운 지능형 이동표적 추적감시 시스템을 제안하고 구현하였다. 제안된 시스템은 먼저, 스테레오 카메라에서 입력된 영상으로부터 YCbCr 칼라 임계치 기법을 사용하여 표적 얼굴영역을 검출한 다음, 지능형 시각 시스템에 기반한 팬/틸트 탑재형 스테레오 카메라의 능동적인 제어를 통해 표적의 다양한 변화에 관계없이 표적의 거리정보 및 3차원적 이동 정보를 실시간적으로 검출함으로써 표적의 적응적 추적감시를 수행하게 된다. 80 프레임의 스테레오 영상을 사용한 실험 결과, 이동표적에 대한 실시간적 위치정보 검출 및 적응적 추적을 확인하였으며 특히, 팬/틸트 추적후 표적 중심좌표의 수평, 수직 표준편차가 매우 작은 값인 1.82, 1.11로 각각 유지되고, 표적의 3차원적 위치 좌표값의 오차 역시 평균 0.5% 이하로 유지됨이 분석됨으로써 이를 통한 새로운 실시간 스테레오 표적 감시추적 시스템의 구현 가능성을 제시하였다.

스테레오 카메라 기반의 적응적인 공간좌표 검출 기법을 이용한 자율 이동로봇 시스템 (Autonomous Mobile Robot System Using Adaptive Spatial Coordinates Detection Scheme based on Stereo Camera)

  • 고정환;김성일;김은수
    • 한국통신학회논문지
    • /
    • 제31권1C호
    • /
    • pp.26-35
    • /
    • 2006
  • 본 논문에서는 지능적인 경로 계획을 위한 스테레오 카메라 기반의 공간좌표 검출 기법을 이용한 자율 이동 로봇 시스템을 제안하였다. 우선 스테레오 카메라로부터 입력된 영상 중 좌 영상에 YCbCr 컬러 모델 및 무게 중심법을 이용하여 이동중인 보행자의 얼굴 영역과 중심좌표를 검출하고, 검출된 좌표 값에 따라 스테레오 카메라의 능동적인 로봇 제어를 통해 이동하는 보행자를 실시간적으로 검출하게 된다. 다음으로, 로봇구동에 의해 추적 제어된 스테레오 카메라의 좌, 우 영상간의 시차정보와 스테레오 카메라 내부 변환관계를 통해 깊이 정보를 검출한 후, 검출된 깊이 지도로부터 각 열에 존재하는 최소값을 이용한 2차원 공간좌표를 검출하여 이동 로봇과 보행자간의 거리와 위치좌표는 물론 다른 물체들과의 상대 거리를 산출하게 되며, 산출된 위치 좌표를 토대로 이동 로봇의 지능적인 경로 추정 및 판단에 따라 자율적인 주행을 수행하게 된다. 실시간적으로 입력되는 240 프레임의 스테레오 영상을 사용한 실험결과, 이동 로봇과 전방에 존재하는 장애물간의 거리 및 보행자와 장애물간 상대거리의 계산치와 측정치간의 오차가 평균 $2.19\%$$1.52\%$이하로 각각 유지됨으로써 경로 계획을 위한 공간좌표 검출에 기반을 둔 실질적인 이동 로봇 시스템의 구현 가능성을 제시하였다.

행동 탐지 기반의 효율적인 객체 선택 알고리듬 (Efficient Object Selection Algorithm by Detection of Human Activity)

  • 박왕배;서융호;두경수;최종수
    • 대한전자공학회논문지SP
    • /
    • 제47권3호
    • /
    • pp.61-69
    • /
    • 2010
  • 본 논문에서는 행동 탐지 기반으로 사람의 지시행위를 인식하여 지시방향의 객체를 선택하고 이를 추적하는 시스템을 제안한다. 일반적으로 사람은 무엇인가를 지시할 경우, 얼굴 방향을 목표물에 두게 된다. 따라서 얼굴과 손끝을 연결한 직선을 지시방향이라 간주하고, 지시된 객체를 선택한다. 제안된 알고리듬에서는 카메라를 통해 입력된 영상으로부터 움직임 영역을 검출하기 위해 배경 차분을 사용하여 실시간으로 관심 객체의 움직임을 추출한다. 보행 여부의 판단은 주성분(PCA) 분석과 객체의 움직임 변위로 결정되며, 이 때 사람이 정지 상태면, 머리를 기준으로 손에 이르는 벡터 관계를 계산하여 사용자의 지시방향을 최종적으로 결정한다. 실험결과를 통하여 다시점 카메라를 이용한 다각도의 영상에서 사람의 지시 방향을 정확하게 추정해 냄으로서 제안된 알고리즘의 유효성을 검증하였다.

블러링기법 기반의 홍채영역 마스킹 방법 (Iris Region Masking based on Blurring Technique)

  • 이기성;김수형
    • 스마트미디어저널
    • /
    • 제11권2호
    • /
    • pp.25-30
    • /
    • 2022
  • 최근 스마트폰 또는 사진기, 화상캠 등의 기기 성능이 발달하면서 영상이나 사진에서 사람의 생체정보를 얻는 일이 가능하게 되었다. 실제 독일의 한 해커단체는 고화질의 사진으로부터 사람의 홍채 정보를 획득하여 스마트폰의 홍채 스캐너를 해킹하는 모습을 공개하기도 하였다. 이처럼 고도화된 기기로 화질 좋은 영상이나 사진을 얻을 수 있게 되면서 그에 맞는 보안시스템의 필요성도 대두되고 있다. 따라서 본 논문에서는 openCV의 Haar Cascades와 Blur 모델을 활용하여 영상이나 사진에서 사람의 홍채 정보를 자동으로 마스킹하는 방법을 제안한다. 위 방법은 사람의 얼굴은 인식한 뒤 얼굴 범위 안에서 눈을 검출하여 자동으로 홍채 정보를 마스킹하는 기술이다. 이 기술이 스마트폰, zoom 등의 기기 및 애플리케이션에서 사용된다면 사용자에게 더 보안성이 뛰어난 서비스를 제공할 수 있을 것으로 기대된다.

모바일 디바이스 기반의 멀티 모달 사용자 거리 추정 시스템 (Multi-Modal User Distance Estimation System based on Mobile Device)

  • 오병훈;홍광석
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권2호
    • /
    • pp.65-71
    • /
    • 2014
  • 본 논문에서는 모바일 디바이스에 기본적으로 제공되는 모노 카메라와 모노 마이크의 멀티 모달 입력을 통하여 사용자와 모바일 디바이스간의 거리를 추정하는 방법을 제안한다. 영상을 이용한 거리 추정은 모노 카메라로 입력되는 영상에서 피부색 영역을 추출하고, 노이즈를 제거한 후에 얼굴 영역 및 눈 영역을 검출하여 사용자의 거리를 추정한다. 음성을 이용한 거리 추정은 모노 마이크로 입력되는 음성으로부터 가장 큰 피크(Peak)를 선정하고, ROI(Region of Interest)를 지정한 후에 FFT(Fast Fourier Transform)을 수행하여 주파수 축에서의 크기(Magnitude)를 계산한다. 계산된 크기 값과 거리별 크기 값의 모델을 비교하여 거리 별 우도(Likelihood)를 계산하고, 정렬한 후 가중치를 주어 더함으로써 사용자의 거리를 추정한다. 실험결과 영상 및 음성을 멀티 모달 입력으로 이용하여 거리를 추정한 결과 단일 모달로 거리를 추정한 결과 보다 향상된 결과를 얻을 수 있었다.

효과적인 인터랙티브 비디오 저작을 위한 얼굴영역 기반의 어노테이션 방법 (Annotation Method based on Face Area for Efficient Interactive Video Authoring)

  • 윤의녕;가명현;조근식
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.83-98
    • /
    • 2015
  • TV를 보면서 방송에 관련된 정보를 검색하려는 많은 시청자들은 정보 검색을 위해 주로 포털 사이트를 이용하고 있으며, 무분별한 정보 속에서 원하는 정보를 찾기 위해 많은 시간을 소비하고 있다. 이와 같은 문제를 해결하기 위한 연구로써, 인터랙티브 비디오에 대한 연구가 활발하게 진행되고 있다. 인터랙티브 비디오는 일반적인 비디오에 추가 정보를 갖는 클릭 가능한 객체, 영역, 또는 핫스팟을 동시에 제공하여 사용자와 상호작용이 가능한 비디오를 말한다. 클릭 가능한 객체를 제공하는 인터랙티브 비디오를 저작하기 위해서는 첫째, 증강 객체를 생성하고, 둘째, 어노테이터가 비디오 위에 클릭 가능한 객체의 영역과 객체가 등장할 시간을 지정하고, 셋째, 객체를 클릭할 때 사용자에게 제공할 추가 정보를 지정하는 과정을 인터랙티브 비디오 저작 도구를 이용하여 수행한다. 그러나 기존의 저작 도구를 이용하여 인터랙티브 비디오를 저작할 때, 객체의 영역과 등장할 시간을 지정하는데 많은 시간을 소비하고 있다. 본 논문에서는 이와 같은 문제를 해결하기 위해 유사한 샷들의 모임인 샷 시퀀스의 모든 샷에서 얼굴 영역을 검출한 샷 시퀀스 메타데이터 모델과 객체의 어노테이션 결과를 저장할 인터랙티브 오브젝트 메타데이터 모델, 그리고 어노테이션 후 발생될 수 있는 부정확한 객체의 위치 문제를 보완할 사용자 피드백 모델을 적용한 얼굴영역을 기반으로 하는 새로운 형태의 어노테이션 방법을 제안한다. 마지막으로 제안한 어노테이션 방법의 성능을 검증하기 위해서 인터랙티브 비디오 저작 시스템을 구현하여 기존의 저작도구들과 저작 시간을 비교하였고, 사용자 평가를 진행 하였다. 비교 분석 결과 평균 저작 시간이 다른 저작 도구에 비해 2배 감소하였고, 사용자 평가 결과 약 10% 더 유용한다고 평가 되었다.

신경망 기반 눈 영역 추정에 의한 실시간 얼굴 검출 기법 (Real-Time Face Detection by Estimating the Eye Region Using Neural Network)

  • 김주섭;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(4)
    • /
    • pp.21-24
    • /
    • 2001
  • In this paper, we present a fast face detection algorithm by estimating the eye region using neural network. To implement a real time face detection system, it is necessary to reduce search space. We limit the search space just to a few pairs of eye candidates. For the selection of them, we first isolate possible eye regions in the fast and robust way by modified histogram equalization. The eye candidates are paired to form an eye pair and each of the eye pair is estimated how close it is to a true eye pair in two aspects : One is how similar the two eye candidates are in shape and the other is how close each of them is to a true eye image A multi-layer perceptron neural network is used to find the eye candidate region's closeness to the true eye image. Just a few best candidates are then verified by eigenfaces. The experimental results show that this approach is fast and reliable. We achieved 94% detection rate with average 0.1 sec Processing time in Pentium III PC in the experiment on 424 gray scale images from MIT, Yale, and Yonsei databases.

  • PDF

모바일 디스플레이에서 TS 알고리즘을 이용한 실시간 얼굴영역 검출 (Real Time Face Detection with TS Algorithm in Mobile Display)

  • 이용환;김영섭;이상범;강정원;박진양
    • 반도체디스플레이기술학회지
    • /
    • 제4권1호
    • /
    • pp.61-64
    • /
    • 2005
  • This study presents a new algorithm to detect the facial feature in a color image entered from the mobile device with complex backgrounds and undefined distance between camera's location and the face. Since skin color model with Hough transformation spent approximately 90$\%$ of running time to extract the fitting ellipse for detection of the facial feature, we have changed the approach to the simple geometric vector operation, called a TS(Triangle-Square) transformation. As the experimental results, this gives benefit of reduced run time. We have similar ratio of face detection to other methods with fast speed enough to be used on real-time identification system in mobile environments.

  • PDF

화자 인식을 통한 등장인물 기반의 비디오 요약 (Character-Based Video Summarization Using Speaker Identification)

  • 이순탁;김종성;강찬미;백중환
    • 융합신호처리학회논문지
    • /
    • 제6권4호
    • /
    • pp.163-168
    • /
    • 2005
  • 본 논문에서는 인물 기반의 비디오 요약 방법으로써 비디오 내 음성정보를 이용하여 화자 인식 기법을 통한 등장인물 중심의 요약 기법을 제안한다. 먼저, 얼굴 영역을 포함하는 장면을 중심으로 비디오로부터 배우의 대사에 해당하는 음성 정보를 분리하고, 화자 인식 기법을 수행하여 등장인물 별로 분류하였다. 화자인식 기법은 각 화자별로 MFCC(Mel Frequency Cepstrum Coefficient) 값을 추출하고 GMM(Gaussian Mixture Model)을 이용하여 분류한다. 본 논문에서는 4명의 등장인물에 대해 GMM을 학습시키고 4명 중 1명을 검출하는 실험을 통해 학습된 GMM 분류기가 실험 비디오에 대해 0.138 정도의 오분류율을 보임을 확인하였다.

  • PDF