• Title, Summary, Keyword: 객체 검출

Search Result 682, Processing Time 0.037 seconds

Deep Convolutional Neural Networks를 이용한 객체 검출 성능의 발전 동향

  • Jo, Seon-Yeong;Sin, Yeong-Suk
    • Broadcasting and Media Magazine
    • /
    • v.22 no.1
    • /
    • pp.19-33
    • /
    • 2017
  • 새로운 영상 미디어 서비스 기술의 발전으로 인해 다양한 영상 인식 기술이 요구되고 있으며, 특히 영상으로부터 특정 객체를 검출하는 기술은 객체와 관련된 광고나 서비스 등의 다양한 활용 분야를 창출하는 핵심 기술이다. 객체 검출 기술이 방송미디어 기술에 적극적으로 활용되기 위해서는 빠르면서도 정확한 성능을 가진 알고리즘 개발이 필수적이다. 본 논문에서는 전통적인 객체 검출 방법들에 비해 우수한 성능을 가지는 Deep Convolutional Neural Networks 기반 객체 검출 방법들을 분석한다. 최근에 소개된 주요 객체 검출 방법들의 연구 배경과 발전 동향을 소개하고, 각 방법의 핵심 알고리즘 및 장단점에 대해 분석한다. 또한 객체 검출의 성능을 평가하기 위해 사용되는 대표적인 데이터셋을 소개하고, 다양한 네트워크 구조/크기 및 학습 데이터 등의 관점에서 각 방법들의 성능을 비교한다. 마지막으로 기존의 객체 검출 방법들을 분석한 내용을 바탕으로 향후 객체 검출 방법들의 발전 방향 및 활용 가능성을 예측해보고자 한다.

Joint Object Detection and Tracking in Video Sequences (동영상을 위한 객체 검출 기법과 추적 기법의 결합)

  • Lim, Kyungsun;Kim, Han-Ul;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • /
    • pp.300-301
    • /
    • 2016
  • 본 논문에서는 동영상에서 제한된 종류의 동적 객체를 자동적으로 검출하여 추적하는 기법을 제안한다. 제안하는 기법은 객체 검출 기법[1]과 객체 추적 기법[2]의 협업을 통해 이를 수행한다. 검출기는 매 장면마다 객체들을 검출하고 이 중 높은 신뢰도의 객체에 대해 추적을 시작한다. 추적기는 이전 장면에서 학습된 분류기에 기반하여 객체를 추적한다. 추적 결과와 겹치는 검출 결과를 분석하여 현재 장면에서 객체의 정확한 위치와 모양을 추정한다. 겹치는 검출 결과가 없을 때는 검출기로 부터 추적 결과의 신뢰도를 측정하고 문턱값에 따라 추적을 계속 진행하거나 종료한다. 실험 결과를 통해 제안하는 기법이 기존 검출 기법에 비해 우수한 검출 성능을 보임을 확인한다.

  • PDF

Video object detection algorithm with multiple random walkers based tracker (다중 랜덤 워커 기반 추적기를 활용한 동영상에서의 객체 검출 기법)

  • Lim, Kyungsun;Kim, Han-Ul;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • /
    • pp.21-22
    • /
    • 2016
  • 본 논문에서는 동영상에서 객체를 자동 검출하는 기법을 제안한다. 제안하는 기법은 정지 영상에서 객체를 검출하는 기법과 동영상에서 객체를 추적하는 기법을 동시에 수행하여 동영상에서 객체를 검출한다. 매 프레임 검출기는 학습된 종류의 객체들을 검출하고 추적기는 이전 프레임에서 검출되었던 객체를 추적한다. 검출기가 검출한 결과와 추적기가 추적한 결과를 매칭하고, 겹치는 결과와 그렇지 않은 결과에 대해 각각 다른 검사를 수행하여 신뢰도 있는 결과를 도출한다. 실험 결과를 통해 제안하는 기법이 기존 검출 기법에 비해 우수한 성능을 보임을 확인한다.

  • PDF

Moving Object Segmentation Using the Clustering of Region Trajectories (영역 궤적의 클러스터링을 이용한 비디오 영상에서의 움직이는 객체의 검출)

  • 권영진;이재호;김회율
    • Proceedings of the IEEK Conference
    • /
    • /
    • pp.15-18
    • /
    • 2001
  • 동영상에서 움직이는 객체 검출은 동영상의 내용을 표현하고 유사한 동영상을 검색하는 데 있어 중요한 특징간을 추출하는 방법으로 사용된다. 그러나 복잡하게 카메라가 움직이는 동영상에서 움직이는 객체 검출은 아직까지 어려운 과제이다. 본 논문에서는 복잡한 카메라의 움직임이 있는 환경에서 움직이는 객체를 강인하게 검출하는 방법을 제안한다. 움직이는 객체 검출 방법은 입력 영상을 색상간의 클러스터링을 이용하여 각 영역으로 구분하는 Mean Shift 알고리즘과 인접한 프레임에서 구분된 영역을 대응시켜 영역의 모션 벡터를 구하는 영역 매칭, 유사한 궤적을 가지는 영역들의 클러스터링을 이용하여 객체를 검출하는 궤적 클러스터링 알고리즘을 사용한다. 제안한 영역 기반 알고리즘은 기존의 픽셀이나 블록 기반의 방법보다 움직이는 객체를 정확하게 검출하였다. 실험 결과 복잡하게 움직이는 카메라의 환경 속에서 움직이는 객체를 강인하게 검출하였다.

  • PDF

Multi-Object Detection and Tracking Using Dual-Layer Particle Sampling (이중계층구조 파티클 샘플링을 사용한 다중객체 검출 및 추적)

  • Jeong, Kyungwon;Kim, Nahyun;Lee, Seoungwon;Paik, Joonki
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.51 no.9
    • /
    • pp.139-147
    • /
    • 2014
  • In this paper, we present a novel method for simultaneous detection and tracking of multiple objects using dual-layer particle filtering. The proposed dual-layer particle sampling (DLPS) algorithm consists of parent-particles (PP) in the first layer for detecting multiple objects and child-particles (CP) in the second layer for tracking objects. In the first layer, PPs detect persons using a classifier trained by the intersection kernel support vector machine (IKSVM) at each particle under a randomly selected scale. If a certain PP detects a person, it generates CPs, and makes an object model in the detected object region for tracking the detected object. While PPs that have detected objects generate CPs for tracking, the rest of PPs still move for detecting objects. Experimental results show that the proposed method can automatically detect and track multiple objects, and efficiently reduce the processing time using the sampled particles based on motion distribution in video sequences.

실시간 영상에서의 휴먼 검출 및 얼굴 분류

  • Kim, Geon-Woo;Nam, Mi-Young;Han, Jong-Wook
    • Review of KIISC
    • /
    • v.20 no.3
    • /
    • pp.48-57
    • /
    • 2010
  • 본 고는 휴먼 객체 검출 및 분류를 위한 것으로서, 입력된 동영상에서 배경 이미지와의 차분 영상을 통해 객체 영역을 검출하고, 검출된 객체 영역에서 얼굴 즉 헤드 영역을 검출하는 방법에 대해서 설명한다. 실시간으로 녹화된 동영상에서 사람이 움직이는 위치와, 크기 등이 아주 다양하며, 또한 한 사람이 아닌 여러 사람 객체를 검출하기 위하여 다중의 사람객체 검출기를 이용한 캐스케이드 사람 객체 추출 방법을 제안한다. 얼굴 크기 등을 고려하여 헤드 영역의 shape 를 기반으로 하여 1차 검출을 수행하고, 검출되지 않은 영역에 대하여 히스토그램 기반의 얼굴 영역을 검출한다. 또한 중복된 영상에 대해 베이지안 얼굴 검출기를 통해 인증함으로써 성능을 향상시킬 수 있다.

Major Object Detection and Composition Analysis for Closed-up Pictures (접사 사진의 주요 객체 검출 및 구도 분석)

  • Lee, Jang-Goon;Lee, Sang-Woong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • /
    • pp.442-444
    • /
    • 2011
  • 본 논문에서는 접사에서의 주요 객체 검출과 검출된 주요객체의 가장 최적화된 구도를 사용자에게 안내하는 방법을 제안한다. 대부분의 접사는 주요객체에 초점을 맞추고 배경이 되는 영역은 아웃 포커싱 기법을 사용하여 촬영한다는 점에서 착안하여 주요 객체를 검출하고 검출된 주요객체와 사진 구도의 3등분할점과 구도점의 상관관계에 대하여 계산하여 최적의 구도라고 판단되는 화면으로 사용자를 유도한다. 제안하는 방법으로의 실험했을 때 좋은 결과를 얻는 것을 확인할 수 있었다.

  • PDF

High-speed Object Detection in a Mobile Terminal Environment (휴대단말 고속 객체 검출)

  • Lee, Jae-Ho;Lee, Chul-Hee
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • /
    • pp.646-648
    • /
    • 2012
  • In this paper, an image detection technique is proposed to extract image features in a mobile terminal environment. To detect objects, the HSI color model of the image is used. The object's corner points are detected using the Harris corner detection method. Finally we detect the object of interest using region growing The experiment results show that the proposed method improves detection performance and reduces the amount of computation.

  • PDF

Robust Object Detection from Indoor Environmental Factors (다양한 실내 환경변수로부터 강인한 객체 검출)

  • Choi, Mi-Young;Kim, Gye-Young;Choi, Hyung-Il
    • Journal of the Korea Society of Computer and Information
    • /
    • v.15 no.2
    • /
    • pp.41-46
    • /
    • 2010
  • In this paper, we propose a detection method of reduced computational complexity aimed at separating the moving objects from the background in a generic video sequence. In generally, indoor environments, it is difficult to accurately detect the object because environmental factors, such as lighting changes, shadows, reflections on the floor. First, the background image to detect an object is created. If an object exists in video, on a previously created background images for similarity comparison between the current input image and to detect objects through several operations to generate a mixture image. Mixed-use video and video inputs to detect objects. To complement the objects detected through the labeling process to remove noise components and then apply the technique of morphology complements the object area. Environment variable such as, lighting changes and shadows, to the strength of the object is detected. In this paper, we proposed that environmental factors, such as lighting changes, shadows, reflections on the floor, including the system uses mixture images. Therefore, the existing system more effectively than the object region is detected.

Camera and LiDAR Sensor Fusion for Improving Object Detection (카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion)

  • Lee, Jongseo;Kim, Mangyu;Kim, Hakil
    • Journal of Broadcast Engineering
    • /
    • v.24 no.4
    • /
    • pp.580-591
    • /
    • 2019
  • This paper focuses on to improving object detection performance using the camera and LiDAR on autonomous vehicle platforms by fusing detected objects from individual sensors through a late fusion approach. In the case of object detection using camera sensor, YOLOv3 model was employed as a one-stage detection process. Furthermore, the distance estimation of the detected objects is based on the formulations of Perspective matrix. On the other hand, the object detection using LiDAR is based on K-means clustering method. The camera and LiDAR calibration was carried out by PnP-Ransac in order to calculate the rotation and translation matrix between two sensors. For Sensor fusion, intersection over union(IoU) on the image plane with respective to the distance and angle on world coordinate were estimated. Additionally, all the three attributes i.e; IoU, distance and angle were fused using logistic regression. The performance evaluation in the sensor fusion scenario has shown an effective 5% improvement in object detection performance compared to the usage of single sensor.