• 제목/요약/키워드: real-time foreground segmentation

검색결과 13건 처리시간 0.027초

화상 통신에서의 사생활 보호를 위한 실시간 전경 분리 및 배경 대체 (Real-Time Foreground Segmentation and Background Substitution for Protecting Privacy on Visual Communication)

  • 배건태;곽수영;변혜란
    • 한국통신학회논문지
    • /
    • 제34권5C호
    • /
    • pp.505-513
    • /
    • 2009
  • 본 논문은 모노 카메라로 입력받은 영상에서 실시간으로 전경과 배경을 분리하여 배경을 자연스럽게 대체 하는 방법을 제안한다. 기존 연구는 대부분 단일 색상의 배경을 이용하여 전경 색에 대한 제약이 있거나, 깊이 정보를 추출을 위한 스테레오 카메라와 같은 장치에 대한 제약이 있거나, 제한적인 전경의 모양 모델을 이용하여 분리할 수 있는 전경의 모양에 대한 제약이 있었다. 이에 본 논문에서는 일반적으로 사용되는 웹캠과 같은 고정된 모노 카메라를 이용하여 실시간으로 전경 분리가 가능한 전경 분리 방법을 제안한다. 또한, 전경 분리의 성능 향상을 위하여 통영상의 시간적인 특징 정보를 이용한 시간적 전경 확률 모델을 제안한다. 또한 분리된 전경과 새로운 배경의 자연스러운 합성을 위한 알파 매트를 이용한 경계선 영역 처리방법과 간단한 후 처리 방법을 제안한다. 제안된 방법은 실제의 화상통신에서 개인의 사적인 정보가 포함된 배경을 자연스럽게 대체시켜 개인의 사생활을 보호할 수 있다.

Foreground 객체 추출을 위한 실시간 SoC 설계 (A Real-time SoC Design of Foreground Object Segmentation)

  • 김지수;이태호;이혁재
    • 대한전자공학회논문지SD
    • /
    • 제43권9호
    • /
    • pp.44-52
    • /
    • 2006
  • 최근 개발된 영상 압축 표준인 MPEG-4 Part 2는 임의의 영상 객체를 처리할 수 있는 최신의 기능을 포함한다. 이러한 기능을 지원하기 위해서는 효과적인 객체 추출 기술이 요구된다. 본 논문에서는 영상 내에서 실시간으로 객체를 추출해 낼 수 있는 알고리즘을 제안한다. 제안된 알고리즘은 두 단계로 구성된다. 첫 번째 단계는 한 프레임의 영상을 시공간적 watershed transform을 이용하여 여러 영역으로 분할하는 것이고, 두 번째 단계는 분할된 영역 정보를 바탕으로 객체를 추출해내는 것이다. 실시간 처리를 위해서 제안된 알고리즘은 하드웨어와 소프트웨어로 분할하여 구현하고, 계산량이 집중된 연산 부분을 하드웨어 가속기를 사용하여 처리한다. 실험 결과 제안된 시스템은 QCIF 크기의 영상을 초당 15 frame 이상의 속도로 처리하면서도, 정확한 객체 추출 결과를 보였다.

DCT와 Guided 필터를 이용한 실시간 영상 분류 (Video Segmentation Using DCT and Guided Filter in real time)

  • 신현학;이주철;김원하
    • 방송공학회논문지
    • /
    • 제20권5호
    • /
    • pp.718-727
    • /
    • 2015
  • 본 논문에서는 고정된 카메라에서 초기 프레임을 참조하여 현재 프레임에 새롭게 유입된 물체의 실시간 분류 방법을 제안한다. 제안한 알고리즘의 실시간 분류 처리를 위하여 복잡도를 최소화 하였다. 먼저 전경과 배경을 구분하는 이진 분류 영상을 추출하기 위하여 DCT(Discrete Cosine Transform) 기법을 사용한다. DCT는 기존 공간영역에서 Texture를 분석하는 방식보다 더욱 정확하게 Texture를 분석할 수 있다. 이는 주파수 영역에서 Texture 특징 분석이 더욱 용이하고 각 요소 안에 intensity와 texture 정보를 종합적으로 고려할 수 있기 때문이다. 또한 DCT 계산 복잡도를 최소화하기 위하여 DCT 수행 전에 색 정보를 이용하여 미리 분류 영역을 분석함으로써 처리 효율을 극대화 하였다. 마지막으로 생성된 이진 분류 영상을 자연스럽게 matting하기 위하여 Guided 필터 사용을 제안한다. Guided 필터는 guidance 정보를 통해 입력 영상을 전반적으로 개선할 수 있지만 intensity가 평탄한 영역 등에서 그 한계를 보여주므로 본 논문에서는 Guided 필터의 단점을 개선하는 방법을 추가적으로 제안한다.

Maritime Object Segmentation and Tracking by using Radar and Visual Camera Integration

  • Hwang, Jae-Jeong;Cho, Sang-Gyu;Lee, Jung-Sik;Park, Sang-Hyon
    • Journal of information and communication convergence engineering
    • /
    • 제8권4호
    • /
    • pp.466-471
    • /
    • 2010
  • We have proposed a method to detect and track moving ships using position from Radar and image processor. Real-time segmentation of moving regions in image sequences is a fundamental step in the radar-camera integrated system. Algorithms for segmentation of objects are implemented by composing of background subtraction, morphologic operation, connected components labeling, region growing, and minimum enclosing rectangle. Once the moving objects are detected, tracking is only performed upon pixels labeled as foreground with reduced additional computational burdens.

몰입형 화상 회의를 위한 강건한 객체 추출 방법 (A Robust Object Extraction Method for Immersive Video Conferencing)

  • 안일구;오대영;김재광;김창익
    • 대한전자공학회논문지SP
    • /
    • 제48권2호
    • /
    • pp.11-23
    • /
    • 2011
  • 본 논문에서 우리는 실시간 성능이 요구되는 비디오 화상회의 시스템을 위해 사전정보 없이 정확하면서도 완전히 자동으로 비디오 객체를 추출하는 방법을 제안한다. 제안하는 방법은 두 단계로 이루어진다: 1) 초기 프레임에서의 정확한 객체 추출, 2) 객체 추출 결과를 이용한 그 이후 프레임에서의 실시간 객체 추출. 초기 프레임에서의 객체 추출은 초기 프레임들의 차영상으로부터 구한 에지들을 누적시킨 누적 에지맵 생성으로부터 시작된다. 즉, 객체의 초기 움직임의 누적으로부터 객체의 형상을 추측하고자 하는 것이다. 이 추측된 형상은 그래프 컷(Graph-Cut) 영상 분할을 위한 객체 씨드(seeds)와 배경 씨드를 할당하는데 이용된다. 그래프 컷 기반 객체 추출 이후 프레임부터는 객체 추출 결과와 연속된 프레임의 차영상의 에지맵을 이용하여 실시간 객체 추출이 수행된다. 실험결과를 통해 제안하는 방법이 이전 연구들과 달리 VGA 크기의 비디오에 대해서도 실시간으로 동작함을 보이고, 따라서 몰입적인 비디오 화상회의 시스템의 개발을 위한 유용한 도구임을 보이고자 한다.

깊이 카메라를 이용한 객체 분리 및 고해상도 깊이 맵 생성 방법 (Foreground Segmentation and High-Resolution Depth Map Generation Using a Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 한국통신학회논문지
    • /
    • 제37C권9호
    • /
    • pp.751-756
    • /
    • 2012
  • 본 논문에서는 색상 카메라와 Time-of-Flight (TOF) 깊이 카메라를 이용해 촬영된 장면에서 전경 영역을 분리하고 영상의 고해상도 깊이 정보를 구하는 방법에 대해 제안한다. 깊이 카메라는 장면의 깊이 정보를 실시간으로 측정할 수 있는 장점이 있지만 잡음과 왜곡이 발생하고 색상 영상과의 상관도도 떨어진다. 따라서 이를 색상 영상과 함께 사용하기 위한 색상 영상의 영역화 및 깊이 카메라 영상의 3차원 투영(warping) 작업, 깊이 경계 영역 탐색 등을 진행한 후, 전경의 객체를 분리하고, 객체와 배경에 대하여 깊이 값 계산한다. 깊이 카메라로부터 얻은 초기 깊이 정보를 이용하여 색상 영상에서 구해진 깊이 맵은 기존의 방법인 스테레오 정합 등의 방법보다 우수한 성능을 나타내었고, 무늬가 없는 영역이나 객체 경계 영역에서도 정확한 깊이 정보를 구할 수 있었다.

동적 환경에서의 효과적인 움직이는 객체 추출 (An effective background subtraction in dynamic scene.)

  • 한재혁;김용진;유세운;이상화;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.631-636
    • /
    • 2009
  • 컴퓨터 비전 분야에서 전경을 추출하기 위한 영역 분할(segmentation) 방법에 대한 연구가 활발히 진행되어 왔다. 특히, 전경이 배제된 배경 영상과 현재 프레임의 차이를 이용하여 전경을 추출하는 배경 차분(background subtraction) 방법은 요구하는 계산량에 비해 우수한 품질의 전경 추출이 가능하므로 실시간 처리가 필요한 비전 시스템에 다양하게 응용되고 있다. 그러나 배경 차분 방법만을 이용하여서는 배경이 동적으로 변하는 환경에서 정확한 전경을 추출해 내지 못하는 단점이 있다. 본 논문에서는 정적인 배경과 동적인 배경이 공존하는 환경에서 영역 분할을 효과적으로 수행하는 방법을 제안한다. 제안된 방법은 정적인 배경 영역에 대해서는 기존의 배경 차분 방법을 이용하여 전경을 추출하고, 동적인 배경 영역에 대해서는 깊이 정보를 이용하여 전경을 추출하는 하이브리드 방식을 사용한다. 정적인 배경에 동적인 영상을 프로젝터로 투영하는 환경에서 제안된 방법의 효율성을 검증하였다.

  • PDF

HMM 분할에 기반한 교통모니터링에 관한 연구 (A Study on HMM-Based Segmentation Method for Traffic Monitoring)

  • 황선기;강용석;김태우;김현열;박영철;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제5권1호
    • /
    • pp.1-6
    • /
    • 2012
  • 본 논문에서는 HMM(Hidden Markov Model)방법에 기초하여 전경과 배경영역 뿐만 아니라 그림자 까지도 분할 할 수 있는 교통모니터링 방법을 제안하였다. 움직이는 물체의 그림자는 시각적 추적을 방해하기 때문에 이러한 문제점을 해결하기 위한 방법으로 각 화소나 영역을 3개의 카테고리 즉, 그림자, 전경, 배경물체로 분할하였다. 교통 모니터링 영상의 경우, 실험결과를 통해 제안된 방법의 효율성을 입증 할 수 있었다.

HMM 분할에 기반한 교통모니터링 (An HMM-Based Segmentation Method for Traffic Monitoring)

  • 남기환;배철수;정주병;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.587-590
    • /
    • 2004
  • 본 논문에서는 HMM(Hidden Markov Model)방법에 기초하여 전경과 배경영역 뿐만아니라 그림자 까지도 분할 할 수 있는 교통모니터링 방법을 제안하였다. 움직이는 물체의 그림자는 시각적 추적을 방해하기 때문에 이러한 문제점을 해결하기 위한 방법으로 각 화소나 영역을 3개의 카테고리 즉, 그림자, 전경, 배경물체로 분할하였다 교통 모니터링 영상의 경우, 실험결과를 통해 제안된 방법의 효율성을 입증 할 수 있었다.

  • PDF

신용카드 번호의 광학적 인식 (Optical Recognition of Credit Card Numbers)

  • 정민철
    • 반도체디스플레이기술학회지
    • /
    • 제13권1호
    • /
    • pp.57-62
    • /
    • 2014
  • This paper proposes a new optical recognition method of credit card numbers. Firstly, the proposed method segments numbers from the input image of a credit card. It uses the significant differences of standard deviations between the foreground numbers and the background. Secondly, the method extracts gradient features from the segmented numbers. The gradient features are defined as four directions of grayscale pixels for 16 regions of an input number. Finally, it utilizes an artificial neural network classifier that uses an error back-propagation algorithm. The proposed method is implemented using C language in an embedded Linux system for a high-speed real-time image processing. Experiments were conducted by using real credit card images. The results show that the proposed algorithm is quite successful for most credit cards. However, the method fails in some credit cards with strong background patterns.