• 제목/요약/키워드: Video Object Segmentation

검색결과 141건 처리시간 0.028초

딥 러닝 기반의 영상처리 기법을 이용한 겹침 돼지 분리 (Separation of Occluding Pigs using Deep Learning-based Image Processing Techniques)

  • 이한해솔;사재원;신현준;정용화;박대희;김학재
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.136-145
    • /
    • 2019
  • The crowded environment of a domestic pig farm is highly vulnerable to the spread of infectious diseases such as foot-and-mouth disease, and studies have been conducted to automatically analyze behavior of pigs in a crowded pig farm through a video surveillance system using a camera. Although it is required to correctly separate occluding pigs for tracking each individual pigs, extracting the boundaries of the occluding pigs fast and accurately is a challenging issue due to the complicated occlusion patterns such as X shape and T shape. In this study, we propose a fast and accurate method to separate occluding pigs not only by exploiting the characteristics (i.e., one of the fast deep learning-based object detectors) of You Only Look Once, YOLO, but also by overcoming the limitation (i.e., the bounding box-based object detector) of YOLO with the test-time data augmentation of rotation. Experimental results with two-pigs occlusion patterns show that the proposed method can provide better accuracy and processing speed than one of the state-of-the-art widely used deep learning-based segmentation techniques such as Mask R-CNN (i.e., the performance improvement over Mask R-CNN was about 11 times, in terms of the accuracy/processing speed performance metrics).

시공간 정보를 이용한 동영상 객체 분할 기법 (Video Object Segmentation Method Using Spatio-Temporal Information)

  • 오혁;최환수;정동석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.349-352
    • /
    • 2000
  • 영상으로부터 의미있는 객체를 영역화하기 위하여, 움직임에 의한 시간적 정보를 이용하거나, 형태학적(Morphological) 기법과 같이 공간적 정보를 이용하는 방법이 있다. 그러나, 단지 시간적 정보나 공간적 정보만을 이용하는 방법은 그 한계를 가지고 있으며, 본 논문에서는 시공간 정보를 이용하여 분할하는 방법을 채택하였다. 시간적 분할에서는, 두 프레임에서 움직임 정보를 찾아내었던 기존 방법을 보완하여 연속되는 세 프레임을 사용하도록 하였다. 이렇게 하면 움직임이 미세한 영상에 대해서도 객체를 분리해 낼 가능성을 높일 수 있게 된다. 공간적 분할시에는, Watershed 알고리즘을 이용하는 형태학적 분할(Morphological Segmentation)[1][2]을 하게 되는데, 전처리 과정의 단일척도경사(Monoscale Gradient) 대신 다중척도 경사(Multiscale Gradient)[3][4]를 사용하여 미세한 경사는 누그러뜨리고 에지 부분의 경사만을 강조하게 하였다. 또한 개선된 Watershed 알고리즘을 제안하여 기존의 Watershed 알고리즘의 과분할 문제를 보완하였다.

  • PDF

화상전송 서비스를 위한 객체 분할 및 지식 기반 얼굴 특징 검출 (Object Segmentation for Image Transmission Services and Facial Characteristic Detection based on Knowledge)

  • 임춘환;양홍영
    • 전자공학회논문지T
    • /
    • 제36T권3호
    • /
    • pp.26-31
    • /
    • 1999
  • 이 논문에서는 영상통신을 위한 객체 분할 알고리즘과 지식기반 얼굴 특징 검출 알고리즘을 제안한다. 이를 위해 일정한 조도 상태에서 비디오 카메라로부터 동일거리에서 256×256 크기의 그레이 스케일 256 레벨로 두장의 영상을 취득한 후 가우시안 필터를 이용하여 영상 내에 존재하는 잡음을 제거한다. 취득된 두 입력영상은 비디오가 가리키고 있는 배경영상과 배경영상 내에 사람이 포함된 경우의 영상이다. 그리고 배경 영상과 얼굴이 포함된 입력 영상의 차를 구한다. 다음으로 차영상에 대해 축소와 팽창 과정을 통해 얼굴영역 내의 잡음을 제거한 후 좌, 우에서 픽셀 값을 조사하여 마스크를 생성한다. 그리고 마스크를 얼굴이 존재하는 원 영상에 투영하여 배경에서 얼굴영역을 분할한 후 얼굴영역의 에지성분을 조사하여 눈, 코, 귀, 입을 분할한다 시뮬레이션 결과를 통하여 제안된 알고리즘의 효율성을 입증한다.

  • PDF

낮은 피사계 심도 영상에서 관심 물체의 효율적인 추출 방법 (An Efficient Object Extraction Scheme for Low Depth-of-Field Images)

  • 박정우;이재호;김창익
    • 한국멀티미디어학회논문지
    • /
    • 제9권9호
    • /
    • pp.1139-1149
    • /
    • 2006
  • 본 논문은 낮은 피사계 심도 영상(low depth-of-field image)에 대해 사용자의 도움 없이 포커스 된 관심 영역을 고속으로 추출하는 효율적인 방법을 제안한다. 우리는 입력 영상에 존재하는 고주파 성분을 HOS(higher order statistics) 계산을 함으로써 영상의 포커스 된 영역을 찾아내는 중요한 지표로 활용한다. 본 논문에서 제안하는 방법은 크게 4가지 단계로 구분할 수 있다. 첫 번째 단계에서는 기존 연구[1] 방법과 동일하게 모든 화소에 관해 HOS 지도를 계산하고 블록화한다. 두 번째 단계에서는 블록화 된 HOS를 이용하여 포커스 된 물체가 존재하는 후보 관심 영역을 대략적으로 구한다. 이후 관심 영역 내부에 존재하는 구멍(hole)을 제거하기 위해 구멍(hole) 추적 및 제거 연산을 수행한다. 마지막으로 최종 관심 후보 영역에서 배경 부분의 화소만 제거하여 포커스 된 관심 물체만을 섬세하게 추출한다. 제안하는 방법은 기존 방법[1]에 비해 정지 영상에서 고속으로 관심 영역을 추출하므로 추후 알고리즘의 변형 없이 낮은 피사계 심도의 동영상에 확장 적용하여 관심 영역을 실시간으로 추출할 수 있다. 본 논문에서 제안하는 방법은 가상 현실(VR)이나 실감 방송, 비디오 인덱싱 시스템과 같은 여러 응용 분야에 효과적으로 적용될 수 있고, 이러한 유용성은 실험 결과를 통해 보였다.

  • PDF

감시 비디오를 위한 H.264/SVC 비트스트림 영역에서의 그래프 기반 움직임 객체 검출 및 추적 (Graph-based Moving Object Detection and Tracking in an H.264/SVC bitstream domain for Video Surveillance)

  • 호와리;김문철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 하계학술대회
    • /
    • pp.298-301
    • /
    • 2012
  • This paper presents a graph-based method of detecting and tracking moving objects in H.264/SVC bitstreams for video surveillance applications that makes use the information from spatial base and enhancement layers of the bitstreams. In the base layer, segmentation of real moving objects are first performed using a spatio-temporal graph by removing false detected objects via graph pruning and graph projection, followed by graph matching to precisely identify the real moving objects over time even under occlusion. For the accurate detection and reliable tracking of moving objects in the enhancement layer, as well as saving computational complexity, the identified block groups of the real moving objects in the base layer are then mapped to the enhancement layer to provide accurate and efficient object detection and tracking in the bitstreams of higher resolution. Experimental results show the proposed method can produce reliable results with low computational complexity in both spatial layers of H.264/SVC test bitstreams.

  • PDF

동영상에서 물체의 추출과 배경영역의 상대적인 깊이 추정 (Moving Object Extraction and Relative Depth Estimation of Backgrould regions in Video Sequences)

  • 박영민;장주석
    • 정보처리학회논문지B
    • /
    • 제12B권3호
    • /
    • pp.247-256
    • /
    • 2005
  • 컴퓨터 비젼에 관한 고전적인 연구 주제들 중의 하나는 두 개 이상의 이미지로부터 3차원 형상을 재구성하는 3차원 변환에 관한 것이다. 본 논문은 단안 카메라로 촬영한 일반적인 2차원 영상물에서 능동적으로 움직이는 3차원 영상의 깊이 정보를 추출하는 문제를 다룬다. 연속하는 프레임들간의 영상 블록의 움직임을 평가하여 카메라의 회전과 배율효과를 보상하고 다음과 같은 두 개의 단계에 걸쳐 블록의 움직임을 추출한다. (i) 블록의 위치와 움직임을 이용하여 카메라의 이동과 초점거리에 대한 전역 파라메타를 계산한다. (ii) 전역 파라메타, 블록의 위치와 움직임을 이용하여 평균 영상 깊이에 대한 상대적인 블록의 깊이를 계산한다. 다양한 동영상을 대상으로 특이점인 경우와 그렇지 않은 경우를 실험하였다. 결과로 얻어지는 상대적인 깊이 정보와 객체는 인간이 판단하는 경우와 동일함을 보였다.

An Improved Method for Detection of Moving Objects in Image Sequences Using Statistical Hypothesis Tests

  • Park, Jae-Gark;Kim, Munchurl;Lee, Myoung-Ho;Ahn, Chei-Teuk
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 Proceedings of International Workshop on Advanced Image Technology
    • /
    • pp.171-176
    • /
    • 1998
  • This paper resents a spatio-temporal video segmentation method. The algorithm segments each frame of video sequences captured by a static or moving camera into moving objects (foreground) and background using a statistical hypothesis test. In the proposed method, three consecutive image frames are exploited and a hypothesis testing is performed by comparing two means from two consecutive difference images, which results in a T-test. This hypothesis test yields change detection mask that indicates moving areas (foreground) and non-moving areas (background). Moreover, an effective method for extracting object mask form change detection mask is proposed.

  • PDF

상호작용 동영상 구현을 위한 객체 분리 제작 기법 (Object Segmentation Technique for Implementation of Interactive Video)

  • 성혁재;곽호영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2018년도 제58차 하계학술대회논문집 26권2호
    • /
    • pp.116-118
    • /
    • 2018
  • 본 논문에서는 기존의 동영상을 그랩컷(GrabCut) 알고리즘과 유니티3D를 이용하여 상호작용이 가능한 동영상을 제작하는 기법을 제안한다. 그랩컷 알고리즘을 이용하여 동영상에서 재생 프레임 단위로 원하는 객체 영역을 추출하고 흑백의 이미지로 이진화한다. 이진화된 결과물과 원본 동영상을 유니티3D에서 동시에 재생하면서 선택 영역의 이진화 픽셀 정보를 기반으로 사용자의 입력을 감지하는 동영상의 제작이 가능함을 보였다.

  • PDF

객체 이동 궤적 기반 비디오의 검색 (Video Retrieval based on Objects Motion Trajectory)

  • 유웅식;이규원;김재곤;김진웅;권오석
    • 한국통신학회논문지
    • /
    • 제25권5B호
    • /
    • pp.913-924
    • /
    • 2000
  • 객체의 이동 궤적에 대한 효율적 기술기(descriptor) 및 이를 이용한 내용기반 비디오 검색 기술을 제안하였다. 정지 배경의 비디오에서 이동 객체를 추출한 후, 객체의 중심 좌표의 시간에 따른 이동 궤적을 2차 다항식의 매개변수로써 표현하였다. 또한, 카메라의 움직임이 있는 유동 배경의 비디오에서 비디오의 전역 움직임을 어파인(affine) 모델링한 후, 어파인 매개변수로써 카메라의 움직임을 식별하고 색인화 하였다. 이동 궤적에 대한 질의 매개변수와 색인화 된 매개변수간 유사도 정합에 의하여 내용 기반의 비디오 검색을 실현하였다. 제안한 기술은 일반 비디오에 대한 신속한 검색뿐만 아니라 감시 비디오 시스템의 효율적 운영에 기여할 수 있을 것으로 기대된다.

  • PDF

그림자 제거를 위한 색상 공간의 비교 (Comparisons of Color Spaces for Shadow Elimination)

  • 이광국;;윤자영;김재준;김회율
    • 한국멀티미디어학회논문지
    • /
    • 제11권5호
    • /
    • pp.610-622
    • /
    • 2008
  • 이동 객체의 검출은 다양한 영상 감시 응용에 필수적인 중요한 기술이다. 그런데 이동 객체 검출 결과로 얻어진 전경 영상에는 그림자에 의한 색상 변화가 전경 영역으로써 함께 검출되는 경우가 쉽게 발생하며, 이러한 문제를 해결하기 위하여 이동 객체 검출은 흔히 그림자 제거와 함께 수행된다. 대부분의 그림자 제거 방법은 조명 변화발생시 색상의 조도 성분만 변화하며 색도 성분은 유지된다는 가정에 기반하여 색도 성분을 분리하여 표현하는 다양한 색상 공간을 통해 그림자 제거를 수행한다. 본 논문에서는 색도 성분을 분리하는 색상 공간 가운데 그림자 제거에 가장 적합한 색상 공간을 선택하고자 다양한 색상 공간 (YCbCr, HSI, 정규화된 rgb, Yxy, Lab, c1c2c3)을 비교하였다. 과거 그림자 제거에 있어서 다양한 색상 공간의 성능을 비교한 몇몇 연구가 있었으나, 기존 연구들은 각 논문에서 제안한 특정 그림자 제거 방법에 다양한 색상 공간을 적용하거나 임의의 임계값을 이용하여 각 색상 공간의 성능을 비교하였기 때문에, 각 색상 공간에서 조명 변화 발생에 따른 색상 왜곡을 정확히 측정하기 어려운 문제가 있었다. 본 논문에서는 이러한 기존 연구의 문제점을 피하고 각 색상 공간을 정확하게 비교하기 위하여 1) 서로 다른 조명 조건에 노출된 동일한 색상을 갖는 면의 경계에서 색도 성분의 기울기 값을 측정함으로서 조명 변화 발생 시 색도 성분의 변화 정도를 비교하였으며, 2) RoC 곡선을 통하여 임계치 설정의 문제를 피하면서 배경 제거 정확도를 비교하였다. 실험을 통하여 YCbCr 색상 공간과 정규화된 rgb 색상 공간이 비교대상으로 선택된 여러 색상 공간 가운데 가장 좋은 성능을 보이는 것을 확인하였다.

  • PDF