• 제목/요약/키워드: foreground detection

검색결과 118건 처리시간 0.022초

배경 모델 갱신을 통한 코드북 기반의 전배경 분할 (Codebook-Based Foreground-Background Segmentation with Background Model Updating)

  • 정재영
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권5호
    • /
    • pp.375-381
    • /
    • 2016
  • 최근 코드북 기반의 전 배경 분리 알고리즘에 대한 연구가 활발히 진행되고 있다. 코드북은 입력 영상 시퀀스로부터 화소당 하나씩 만들어 지는데, 코드북 내의 각 코드워드는 동일 위치의 훈련 화소들을 대상으로 양자화를 수행한 클러스터 대표 벡터이다. 일반적인 코드북 기반 방법들은 초기 배경 모델 생성을 위하여 긴 시간동안 훈련 샘플들의 학습 과정을 거친다. 본 논문에서는 초기 몇 장의 프레임으로 부터 간단한 중위수 연산을 통하여 초기 배경 모델을 생성하고, 시간의 흐름에 따라 변화된 배경 정보를 포함할 수 있도록 코드워드의 사용 빈도수에 기반하여 배경 모델을 갱신한다. 제안한 알고리즘을 OpenCV 3.0과 연동하여 C언어로 구현하여 몇 개의 PETS2009 데이터에 적용 실험하였다. 해당 데이터는 준-주기적 움직임을 갖는 영상 시퀀스, 이동 물체의 일시 정지 등의 시나리오를 포함하고 있다. 실험을 통하여 제안한 방식이 GMM 알고리즘, 표준 코드북 알고리즘에 비하여 우수한 성능을 나타내고 있음을 확인하였다.

딥 러닝과 마르코프 랜덤필드를 이용한 동영상 내 그림자 검출 (Moving Shadow Detection using Deep Learning and Markov Random Field)

  • 이종택;강현우;임길택
    • 한국멀티미디어학회논문지
    • /
    • 제18권12호
    • /
    • pp.1432-1438
    • /
    • 2015
  • We present a methodology to detect moving shadows in video sequences, which is considered as a challenging and critical problem in the most visual surveillance systems since 1980s. While most previous moving shadow detection methods used hand-crafted features such as chromaticity, physical properties, geometry, or combination thereof, our method can automatically learn features to classify whether image segments are shadow or foreground by using a deep learning architecture. Furthermore, applying Markov Random Field enables our system to refine our shadow detection results to improve its performance. Our algorithm is applied to five different challenging datasets of moving shadow detection, and its performance is comparable to that of state-of-the-art approaches.

감시용 카메라 영상에서의 배경 특성을 사용한 그림자 제거 (Removing Shadows Using Background Features in the Images of a Surveillance Camera)

  • 김정대;도용태
    • 제어로봇시스템학회논문지
    • /
    • 제19권3호
    • /
    • pp.202-208
    • /
    • 2013
  • In the image processing for VS (Video Surveillance), the detection of moving entities in a monitored scene is an important step. A background subtraction technique has been widely employed to find the moving entities. However, the extracted foreground regions often include not only real entities but also their cast shadows, and this can cause errors in following image processing steps, such as tracking, recognition, and analysis. In this paper, a novel technique is proposed to determine the shadow pixels of moving objects in the foreground image of a VS camera. Compared to existing techniques where the same decision criteria are applied to all moving pixels, the proposed technique determines shadow pixels using local features based on two facts: First, the amount of pixel intensity drop due to a shadow depends on the intensity level of background. Second, the distribution pattern of pixel intensities remains even if a shadow is cast. The proposed method has been tested at various situations with different backgrounds and moving humans in different colors.

런길이 및 체인코드를 이용한 지문 융선의 방향 검출 (Detection of Fingerprint Ridge Direction Based on the Run-Length and Chain Codes)

  • 이정환;박세현
    • 한국정보통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1740-1747
    • /
    • 2004
  • 본 논문에서는 지문 융선의 방향정보를 검출하는 효과적인 방법을 제안하였다. 제안방법은 먼저 지문영상을 정규화하고 융선이 있는 전경영역과 융선이 없는 배경영역으로 분할하여 문턱값으로 이진영상으로 변환한다. 전경영역은 융선(ridge)과 골(valley)부분으로 구성되는데 융선의 경계를 런길이 부호를 이용하여 체인코드로 표현한다. 지문 융선의 각 화소에서 방향정보를 검출하기 위해서 체인코드로 표현된 융선 경계를 추적하면서 방향정보를 구한다. 그리고 일정한 블록내의 융선방향은 급격하게 변하지 않으므로 블록별로 평활화하여 각 화소의 방향정보를 구한다. 제안방법의 성능평가를 위해 NIST 및 FVC2002 지문데이터베이스를 이용하여 컴퓨터시뮬레이션을 수행하였다. 실험 결과 제안방법을 지문 융선의 방향정보를 효과적으로 검출하는데 이용할 수 있음을 보였다.

프레임 차와 톤 매핑을 이용한 저조도 영상 향상 (Low-light Image Enhancement Based on Frame Difference and Tone Mapping)

  • 정윤주;이영학;심재창;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제21권9호
    • /
    • pp.1044-1051
    • /
    • 2018
  • In this paper, we propose a new method to improve low light image. In order to improve the image quality of a night image with a moving object as much as the quality of a daytime image, the following tasks were performed. Firstly, we reduce the noisy of the input night image and improve the night image by the tone mapping method. Secondly, we segment the input night image into a foreground with motion and a background without motion. The motion is detected using both the difference between the current frame and the previous frame and the difference between the current frame and the night background image. The background region of the night image takes pixels from corresponding positions in the daytime image. The foreground regions of the night image take the pixels from the corresponding positions of the image which is improved by the tone mapping method. Experimental results show that the proposed method can improve the visual quality more clearly than the existing methods.

영상 운동 분류와 키 운동 검출에 기반한 2차원 동영상의 입체 변환 (Stereoscopic Video Conversion Based on Image Motion Classification and Key-Motion Detection from a Two-Dimensional Image Sequence)

  • 이관욱;김제동;김만배
    • 한국통신학회논문지
    • /
    • 제34권10B호
    • /
    • pp.1086-1092
    • /
    • 2009
  • Stereoscopic conversion has been an important and challenging issue for many 3-D video applications. Usually, there are two different stereoscopic conversion approaches, i.e., image motion-based conversion that uses motion information and object-based conversion that partitions an image into moving or static foreground object(s) and background and then converts the foreground in a stereoscopic object. As well, since the input sequence is MPEG-1/2 compressed video, motion data stored in compressed bitstream are often unreliable and thus the image motion-based conversion might fail. To solve this problem, we present the utilization of key-motion that has the better accuracy of estimated or extracted motion information. To deal with diverse motion types, a transform space produced from motion vectors and color differences is introduced. A key-motion is determined from the transform space and its associated stereoscopic image is generated. Experimental results validate effectiveness and robustness of the proposed method.

토마토 위치 및 자세 추정을 위한 데이터 증대기법 (Data Augmentation for Tomato Detection and Pose Estimation)

  • 장민호;황영배
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.44-55
    • /
    • 2022
  • 농업 관련 방송 콘텐츠에서 과일에 대한 자동적인 정보 제공을 위해서 대상 과일의 인스턴스 영상 분할이 요구된다. 또한, 해당 과일에 대한 3차원 자세에 대한 정보 제공도 의미있게 사용될 수 있다. 본 논문에서는 영상 콘텐츠에서 토마토에 대한 정보를 제공하는 연구를 다룬다. 인스턴스 영상 분할 기법을 학습하기 위해서는 다량의 데이터가 필요하지만 충분한 토마토 학습데이터를 얻기는 힘들다. 따라서 적은 양의 실사 영상을 바탕으로 데이터 증대기법을 통해 학습 데이터를 생성하였다. 실사 영상만을 통한 학습 결과 정확도에 비해서, 전경과 배경을 분리해서 만들어진 합성 영상을 통해 학습한 결과, 기존 대비 성능이 향상되는 것을 확인하였다. 영상 전처리 기법들을 활용해서 만들어진 영상을 사용한 데이터 증대 영상의 학습 결과, 전경과 배경을 분리한 합성 영상보다 높은 성능을 얻는 것을 확인하였다. 객체 검출 후 자세 추정을 하기 위해 RGB-D 카메라를 이용하여 포인트 클라우드를 획득하였고 최소제곱법을 이용한 실린더 피팅을 진행하였고, 실린더의 축 방향을 통해 토마토 자세를 추정하였다. 우리는 다양한 실험을 통해서 대상 객체에 대한 검출, 인스턴스 영상 분할, 실린더 피팅의 결과가 의미있게 나타난다는 것을 보였다.

비디오 시퀀스에서 움직임 정보를 이용한 침입탐지 알고리즘 (Intrusion Detection Algorithm based on Motion Information in Video Sequence)

  • 알라 킴;김윤호
    • 한국항행학회논문지
    • /
    • 제14권2호
    • /
    • pp.284-288
    • /
    • 2010
  • 비디오 감시 장치는 사회안전망 구축분야에서 다양하게 응용되고 있다. 본 논문은 고정 카메라에서 취득된 시각정보를 이용한 침입 탐지 알고리즘을 제안하였다. 제안한 알고리즘은 비디오 시퀀스에서 AMF를 이용하여 모델링된 배경으로부터 물체 프레임 후보를 찾아내고, 감지된 물체는 움직임 정보의 분석으로 계산된다. 움직임 검출은 RGB 공간에서 2D 물체의 상대적 크기로 결정하였으며 물체 감지를 위한 임계값은 실험적인 방법으로 결정하였다. 실험 결과, 시 공간적 후보 정보들이 급격히 변화할 때, 물체 감지의 성능이 우수함을 확인할 수 있었다.

어안 렌즈 카메라 영상을 이용한 기절동작 인식 (Development of a Fall Detection System Using Fish-eye Lens Camera)

  • 소인미;한대경;강선경;김영운;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.97-103
    • /
    • 2008
  • 이 논문은 응급상황을 인식하기 위하여 어안렌즈를 통해 획득된 영상을 이용하여 기절 동작을 인식하는 방법을 제안한다. 거실의 천장 중앙에 위치한 어안렌즈(fish-eye lens)를 장착한 카메라로부터 영상을 입력 받은 뒤, 가우시안 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 전경 픽셀을 추출한다. 그리고 연결되어 있는 전경픽셀 영역들의 외곽점들을 추적하여 타원으로 매핑한다. 이 타원을 추적하면서 어안 렌즈 영상을 투시 영상으로 변환한 다음 타원의 크기 변화, 위치 변화, 이동 속도정보를 추출하여 이동과 정지 및 움직임이 기절동작과 유사한지를 판단한다. 실험 결과 어안 렌즈 영상을 그대로 사용하는 것보다 투시 영상으로 변환하여 타원의 크기변화, 위치변화, 이동속도 정보를 추출하는 방법이 보다 높은 인식률을 보였다.

  • PDF

Visual Attention Detection By Adaptive Non-Local Filter

  • Anh, Dao Nam
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제5권1호
    • /
    • pp.49-54
    • /
    • 2016
  • Regarding global and local factors of a set of features, a given single image or multiple images is a common approach in image processing. This paper introduces an application of an adaptive version of non-local filter whose original version searches non-local similarity for removing noise. Since most images involve texture partner in both foreground and background, extraction of signified regions with texture is a challenging task. Aiming to the detection of visual attention regions for images with texture, we present the contrast analysis of image patches located in a whole image but not nearby with assistance of the adaptive filter for estimation of non-local divergence. The method allows extraction of signified regions with texture of images of wild life. Experimental results for a benchmark demonstrate the ability of the proposed method to deal with the mentioned challenge.