• Title, Summary, Keyword: Mask Video

Search Result 65, Processing Time 0.046 seconds

Partially Occluded Face Recognition in Video using Intensity Distortion (Intensity Distortion을 이용한 Partially Occluded 얼굴인식)

  • Ju, Myung-Ho;Kang, Hang-Bong
    • Proceedings of the IEEK Conference
    • /
    • /
    • pp.683-684
    • /
    • 2006
  • 본 논문은 비디오기반의 얼굴인식에 있어서 환경의 변화나 왜곡, 노이즈 등으로 발생할 수 있는 부분적인 가림현상(Partial Occlusion)에 대한 처리기법을 제시한다. 인증되는 각 사람은 하나의 Manifold 를 구성하며 각 Manifold 는 m 개의 pose-Manifold 로 구성된다. Pose-Manifold 를 구성하기 위한 학습데이터는 매우 유사한 포즈들로 구성되기 때문에 얼굴을 이루는 영역의 픽셀에 대한 Intensity 의 변화는 크지 않다. 입력되는 이미지의 Intensity 를 학습데이터의 Intensity 의 변화량을 고려한 Intensity Distortion 을 이용하면 Occlusion 이 발생한 영역을 찾을 수 있고, Occlusion 이 발생한 정도에 따라 가중치를 부여할 수 있다. 이렇게 Occlusion 에 따라 영역에 중요도를 다르게 하여 얼굴인식률을 높이고자 한다. 실험에서는 제시하는 Mask 를 사용하지 않았을 경우와 기존에 제시된 알고리즘과의 성능을 비교한다.

  • PDF

Face Detection for Intelligent Video Conference System (지능형 영상회의를 위한 얼굴검출)

  • Park, Jae-Hyeon;Park, Gyu-Sik;On, Seung-Yeop;Kim, Cheon-Guk
    • The KIPS Transactions:PartB
    • /
    • v.8B no.1
    • /
    • pp.20-27
    • /
    • 2001
  • 얼굴검출은 현재 많은 연구가 활발히 진행되고 있는 분야로 보안, 인식 등 다양한 응용분야를 갖는다. 본 논문은 카메라가 화자의 이동에 따라 이를 추적하여 회전하고 회의상황에 맞는 앵글을 유지하는 지능형 영상회의 시스템 개발의 기본요소인 화자검출의 선행단계로 얼굴검출에 대한 새로운 방법을 제안한다. RGB 색 공간의 입력영상을 YIQ 공간으로 변환한 후 IQ 성분은 피부영역검출에 Y 성분은 얼굴의 특성을 추출하는데 사용된다. 색 분포도를 이용하여 피부영역을 검출하고, 마스크를 누적 적용하여 잡음을 제거한 후 얼굴의 구조적인 특성과 명암의 분포를 이용하여 얼굴영역이 검출된다. 실험결과 다양한 배경의 영상에서 여러 명의 얼굴이 오류 없이 검출됨이 관찰되었다.

  • PDF

Semi-Automatic Video Segmentation Using Virtual Blue Screens (가상의 블루스크린을 이용한 반자동 동영상분할)

  • 신종한;김대희;호요성
    • Proceedings of the IEEK Conference
    • /
    • /
    • pp.279-282
    • /
    • 2001
  • 본 논문에서는 가상의 블루스크린(Virtual Blue Screens, VBS)을 이용한 반자동 영상분할 기법을 제안한다. 가상 블루스크린은 동영상에서 배경영역을 특정한 값으로 채워 만든 참조영상으로 정의한다. 반자동 영상 분할 기법은 크게 화면내 영상분할과 화면간 영상분할의 두 단계로 이루어진다. 화면내 영상분할은 VBS와 원영상의 형태학적 분할 기법을 사용하고, 화면간 영상 분할은 두개의 연속하는 화면에서 변화검출(Change Detection)로 이루어진다 [1]. 본 논문에서는 효과적인 변화검출을 위하여 제안된 VBS를 사용한다. VBS를 이용한 영상분할에서는 우선, 이전화면에서 만들어진 VBS를 참조하여 다음화면에서 움직임 영역을 예측한다. 이렇게 예측된 영상과 원영상에 대해 형태학적 분할 기법(Morphological Segmentation Technique)을 이용해서 각각에 대한 레이블 마스크(Label Mask)를 얻는다 [2]. 두개의 레이블 마스크 사이에는 서로 공통된 영역들이 존재하게 되는데, 이런 공통된 영역을 추출함으로써 움직임 객체를 검출한다. 현재화면에서 검출된 움직임 객체는 다음화면을 위한 가상의 블루 스크린을 만드는데 사용한다.

  • PDF

Evaluation of color CRT monitor by MTFA (MTFA에 의한 칼라 CRT의 화질 평가)

  • 김태희
    • Korean Journal of Optics and Photonics
    • /
    • v.9 no.3
    • /
    • pp.205-211
    • /
    • 1998
  • The MTF(modulation transfer function) measuring system with a linear CCD(charge coupled-device) was constructed to cvaluate a color CRT(catode ray tube). The measured MTF values were corrected by considering the spectral response and the pixel sizes of CCD. The effects of a spot size, video bandwidth, pitch of shadow mask holes, display luminance, and ambient illumination on image quality were studied. The uniformity of resolution and the contrast Ioss by ambient light of the color CRT monitor were measured, and the results were analyzed by MTFA(modulation threshold area).

  • PDF

A Study on Adaptive Information Hiding Technique for Copyright Protection of Digital Images (디지털 영상물의 저작권 보호를 위한 적응적 정보 은닉 기술에 관한 연구)

  • Park, Kang-Seo;Chung, Tae-Yun;Oh, Sang-Rok;Park, Sang-Hee
    • Proceedings of the KIEE Conference
    • /
    • /
    • pp.2427-2429
    • /
    • 1998
  • Digital watermarking is the techinque which embeds the invisible signal into multimedia data such as audio, video, images, for copyright protection, including owner identification and copy control information. This paper proposes a new watermark embedding and extraction technique by extending the direct sequence spread spectrum technique. The proposed technique approximates the frequency component of pixels in spatial domain by using Laplacian mask and adaptively embeds the watermark considering the HVS to reduce the degradation of Image. In watermark extraction process, the proposed technique strengthens the high frequency components of image and extracts the watermark by demodulation. All this processes are performed in spatial domain to reduce the processing time.

  • PDF

Content-based MPEG-4 Object Extraction (내용기반의 MPEG-4 객체 추출 연구)

  • 권기호;최석림
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • /
    • pp.115-120
    • /
    • 1999
  • 본 논문에서는 연속적인 입력화상에서 움직임을 나타내는 객체(Object)를 적은 연산량을 사용하여 추출해 내는 알고리즘을 소개한다. 본 알고리즘은 두 가지 단계로 이루어진다. 첫번째 단계로, 이전의 영상과 현재의 영상을 비교하여 움직임의 변화를 보이는 영역을 찾는다. 이 단계에서는 영상을 비교하여 움직임을 추출하기 위하여 창조영상과 현재의 영상, 그리고 영상의 데이터로서 edge정보를 사용한다. 두 번째 단계에서는, 첫번째 단계에서 움직임으로 판단된 Object mask(변화를 가지는 영역)를 가지고 background 제거 및 Object의 정확한 shape을 만들기 위한 post-processing과정을 가지게 된다. 이 두 단계를 거친 후 입력영상에서 background를 떼어낸 최종적인 Object의 shape정보가 추출되게 된다. 이 알고리즘은 object를 기반으로 부호화함으로써 데이터의 압축률을 극대화 시키는 MPEG-4뿐만 아니라, video database, 무선 통신등과 같은 다양한 범위의 application에 적절하게 사용될 수 있을 것이다.

  • PDF

Motion Detection using Adaptive Background Image and Pixel Space (적응적 배경영상과 픽셀 간격을 이용한 움직임 검출)

  • 지정규;이창수;오해석
    • Journal of Information Technology Applications and Management
    • /
    • v.10 no.3
    • /
    • pp.45-54
    • /
    • 2003
  • Security system with web camera remarkably has been developed at an Internet era. Using transmitted images from remote camera, the system can recognize current situation and take a proper action through web. Existing motion detection methods use simply difference image, background image techniques or block matching algorithm which establish initial block by set search area and find similar block. But these methods are difficult to detect exact motion because of useless noise. In this paper, the proposed method is updating changed background image as much as $N{\times}M$pixel mask as time goes on after get a difference between imput image and first background image. And checking image pixel can efficiently detect motion by computing fixed distance pixel instead of operate all pixel.

  • PDF

Implementation of Driver Fatigue Monitoring System (운전자 졸음 인식 시스템 구현)

  • Choi, Jin-Mo;Song, Hyok;Park, Sang-Hyun;Lee, Chul-Dong
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.37 no.8C
    • /
    • pp.711-720
    • /
    • 2012
  • In this paper, we introduce the implementation of driver fatigue monitering system and its result. Input video device is selected commercially available web-cam camera. Haar transform is used to face detection and adopted illumination normalization is used for arbitrary illumination conditions. Facial image through illumination normalization is extracted using Haar face features easily. Eye candidate area through illumination normalization can be reduced by anthropometric measurement and eye detection is performed by PCA and Circle Mask mixture model. This methods achieve robust eye detection on arbitrary illumination changing conditions. Drowsiness state is determined by the level on illumination normalize eye images by a simple calculation. Our system alarms and operates seatbelt on vibration through controller area network(CAN) when the driver's doze level is detected. Our algorithm is implemented with low computation complexity and high recognition rate. We achieve 97% of correct detection rate through in-car environment experiments.

Real time detection and recognition of traffic lights using component subtraction and detection masks (성분차 색분할과 검출마스크를 통한 실시간 교통신호등 검출과 인식)

  • Jeong Jun-Ik;Rho Do-Whan
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.43 no.2
    • /
    • pp.65-72
    • /
    • 2006
  • The traffic lights detection and recognition system is an essential module of the driver warning and assistance system. A method which is a color vision-based real time detection and recognition of traffic lights is presented in this paper This method has four main modules : traffic signals lights detection module, traffic lights boundary candidate determination module, boundary detection module and recognition module. In traffic signals lights detection module and boundary detection module, the color thresholding and the subtraction value of saturation and intensity in HSI color space and detection probability mask for lights detection are used to segment the image. In traffic lights boundary candidate determination module, the detection mask of traffic lights boundary is proposed. For the recognition module, the AND operator is applied to the results of two detection modules. The input data for this method is the color image sequence taken from a moving vehicle by a color video camera. The recorded image data was transformed by zooming function of the camera. And traffic lights detection and recognition experimental results was presented in this zoomed image sequence.

An Optimal Implementation of Object Tracking Algorithm for DaVinci Processor-based Smart Camera (다빈치 프로세서 기반 스마트 카메라에서의 객체 추적 알고리즘의 최적 구현)

  • Lee, Byung-Eun;Nguyen, Thanh Binh;Chung, Sun-Tae
    • Proceedings of the Korea Contents Association Conference
    • /
    • /
    • pp.17-22
    • /
    • 2009
  • DaVinci processors are popular media processors for implementing embedded multimedia applications. They support dual core architecture: ARM9 core for video I/O handling as well as system management and peripheral handling, and DSP C64+ core for effective digital signal processing. In this paper, we propose our efforts for optimal implementation of object tracking algorithm in DaVinci-based smart camera which is being designed and implemented by our laboratory. The smart camera in this paper is supposed to support object detection, object tracking, object classification and detection of intrusion into surveillance regions and sending the detection event to remote clients using IP protocol. Object tracking algorithm is computationally expensive since it needs to process several procedures such as foreground mask extraction, foreground mask correction, connected component labeling, blob region calculation, object prediction, and etc. which require large amount of computation times. Thus, if it is not implemented optimally in Davinci-based processors, one cannot expect real-time performance of the smart camera.

  • PDF