• 제목/요약/키워드: Salient Object Detection

검색결과 26건 처리시간 0.029초

AANet: Adjacency auxiliary network for salient object detection

  • Li, Xialu;Cui, Ziguan;Gan, Zongliang;Tang, Guijin;Liu, Feng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권10호
    • /
    • pp.3729-3749
    • /
    • 2021
  • At present, deep convolution network-based salient object detection (SOD) has achieved impressive performance. However, it is still a challenging problem to make full use of the multi-scale information of the extracted features and which appropriate feature fusion method is adopted to process feature mapping. In this paper, we propose a new adjacency auxiliary network (AANet) based on multi-scale feature fusion for SOD. Firstly, we design the parallel connection feature enhancement module (PFEM) for each layer of feature extraction, which improves the feature density by connecting different dilated convolution branches in parallel, and add channel attention flow to fully extract the context information of features. Then the adjacent layer features with close degree of abstraction but different characteristic properties are fused through the adjacent auxiliary module (AAM) to eliminate the ambiguity and noise of the features. Besides, in order to refine the features effectively to get more accurate object boundaries, we design adjacency decoder (AAM_D) based on adjacency auxiliary module (AAM), which concatenates the features of adjacent layers, extracts their spatial attention, and then combines them with the output of AAM. The outputs of AAM_D features with semantic information and spatial detail obtained from each feature are used as salient prediction maps for multi-level feature joint supervising. Experiment results on six benchmark SOD datasets demonstrate that the proposed method outperforms similar previous methods.

가중치 차 영상과 움직임 벡터를 이용한 두드러진 움직임 정보 검출 방법 (Salient Motion Information Detection Method Using Weighted Subtraction Image and Motion Vector)

  • 김선우;하태령;박춘배;최연성
    • 한국정보통신학회논문지
    • /
    • 제11권4호
    • /
    • pp.779-785
    • /
    • 2007
  • 비디오 감시를 위한 움직이는 객체의 검출은 매우 중요하다. 많은 환경에서 움직임은 관심 있는 움직임과 관심없는 움직임으로 나눌 수 있다. 관심 있는 움직임을 갖는 연구는 이미 많은 논의가 있어 왔다. 이 논문에서, 우리는 최신의 MPEG-4 EPZS 알고리즘을 이용한 움직임 벡터로부터 많은 움직임을 갖는 블록 영상을 구한 뒤, 시간에 대한 가중치를 부여한 차 영상과의 결합에 의한 복합적인 환경에서의 현저한 움직임 검출 방법을 제안한다. 우리의 방법은 기존의 배경 차 방법과 비교하여 눈에 띄게 좋은 결과영상을 얻을 수 있었다. 제안된 검출 방법은 다른 움직임의 간섭이 있는 복잡한 환경에서의 객체검출에 매우 효과적이다.

Background Prior-based Salient Object Detection via Adaptive Figure-Ground Classification

  • Zhou, Jingbo;Zhai, Jiyou;Ren, Yongfeng;Lu, Ali
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권3호
    • /
    • pp.1264-1286
    • /
    • 2018
  • In this paper, a novel background prior-based salient object detection framework is proposed to deal with images those are more complicated. We take the superpixels located in four borders into consideration and exploit a mechanism based on image boundary information to remove the foreground noises, which are used to form the background prior. Afterward, an initial foreground prior is obtained by selecting superpixels that are the most dissimilar to the background prior. To determine the regions of foreground and background based on the prior of them, a threshold is needed in this process. According to a fixed threshold, the remaining superpixels are iteratively assigned based on their proximity to the foreground or background prior. As the threshold changes, different foreground priors generate multiple different partitions that are assigned a likelihood of being foreground. Last, all segments are combined into a saliency map based on the idea of similarity voting. Experiments on five benchmark databases demonstrate the proposed method performs well when it compares with the state-of-the-art methods in terms of accuracy and robustness.

물체 정합을 위한 특징점 추출 및 물체 표현에 관한 연구 (A Study on the salient points detection and object representation for object matching)

  • 박정민;손광훈;허영
    • 전자공학회논문지S
    • /
    • 제35S권6호
    • /
    • pp.101-108
    • /
    • 1998
  • 물체를 인식하기 위한 효율적인 방법 중의 하나는 물체의 경계선에서 가장 적절한 특징들을 추출해 내어 인식에 사용하는 것이다. 본 논문에서는 경계선 위의 각 화소에서 주변 화소들과의 관계를 이용해 코너점, 접점, 변곡점을 추출하여 물체의 특징점으로 사용하였다. 기존에 주로 사용되던 중요한 특징점의 하나인 코너점은 곡률 함수상에서 찾고, 또한 물체가 직선과 곡선으로 이루어져 있을 경우 코너점만으로 물체를 표현하기에 부족하므로 곡률 함수를 미디안 필터링하여 양자화 잡음을 제거함으로써 접점과 변곡점을 찾는 새로운 방법을 제안하였다. 그리고 이 세 가지 특징점을 물체 정합의 요소로 사용하여 물체를 정합하였다. 정합 방법으로는 Discrete Hopfield Neural Network을 사용하였으며, 성능 분석 결과 곡선이 섞인 물체에서 코너점만으로 물체를 정합한 경우보다 특징점으로 물체를 정합한 경우 우수한 정합 성능을 나타내었다.

  • PDF

영상 분할 및 주요 특징 점을 이용한 다중 객체 검출 (Multi-Object Detection Using Image Segmentation and Salient Points)

  • 이정호;김지훈;문영식
    • 전자공학회논문지CI
    • /
    • 제45권2호
    • /
    • pp.48-55
    • /
    • 2008
  • 본 논문은 영상 분할 기법 및 특징 점 추출 기법을 이용한 객체 추출 방법과 영상 검색 방법을 제안한다. 제안하는 방법은 크게 네 단계의 과정으로 이루어져 있다. 첫 번째 단계에서는 데이터베이스 영상에 대해서 JSEG 알고리즘을 이용하여 영상을 분할한다. 두 번째 단계에서 각 분할된 영역과 질의 영상에서 대표 색상을 추출하고, 색상 히스토그램을 생성한다. 질의 영상과 데이터베이스 영상의 각 영역간의 대표 색상과 색상 히스토그램을 비교한 결과를 종합하여 객체 후보 영역을 추출한다. 영상분할 과정에서 지나치게 분할된 영역을 위해 인접해 있는 후보 영역들을 합병한다. 세 번째 단계에서는 각 후보 영역과 질의 영상에서 DoG(Difference of Gaussian) 피라미드의 극치 점으로부터 영상의 크기 변화에 일관된 중요 특징 점들을 추출한다. 추출된 특징 점들을 정합하여 질의 영상에 해당하는 객체를 검출한다. 마지막 단계에서는 질의 영상과 객체 영역이 추출된 DB 영상과의 유사도 측정을 통한 검색을 수행하며, 유사도 측정은 색상 상관도표(Color correlogram)를 사용한다. 실험 결과를 통하여 본 논문에서 제안하는 영상 검색 방법은 질의 객체 영상에 대해 영상 전체를 비교하는 것이 아니라 객체가 존재하는 영역을 추출한 후 유사도를 측정함으로써, 배경에 의한 오검색률이 감소하고, 검색 성능이 향상됨을 확인하였다.

Salient Object Detection via Multiple Random Walks

  • Zhai, Jiyou;Zhou, Jingbo;Ren, Yongfeng;Wang, Zhijian
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권4호
    • /
    • pp.1712-1731
    • /
    • 2016
  • In this paper, we propose a novel saliency detection framework via multiple random walks (MRW) which simulate multiple agents on a graph simultaneously. In the MRW system, two agents, which represent the seeds of background and foreground, traverse the graph according to a transition matrix, and interact with each other to achieve a state of equilibrium. The proposed algorithm is divided into three steps. First, an initial segmentation is performed to partition an input image into homogeneous regions (i.e., superpixels) for saliency computation. Based on the regions of image, we construct a graph that the nodes correspond to the superpixels in the image, and the edges between neighboring nodes represent the similarities of the corresponding superpixels. Second, to generate the seeds of background, we first filter out one of the four boundaries that most unlikely belong to the background. The superpixels on each of the three remaining sides of the image will be labeled as the seeds of background. To generate the seeds of foreground, we utilize the center prior that foreground objects tend to appear near the image center. In last step, the seeds of foreground and background are treated as two different agents in multiple random walkers to complete the process of salient object detection. Experimental results on three benchmark databases demonstrate the proposed method performs well when it against the state-of-the-art methods in terms of accuracy and robustness.

A Saliency Map based on Color Boosting and Maximum Symmetric Surround

  • Huynh, Trung Manh;Lee, Gueesang
    • 스마트미디어저널
    • /
    • 제2권2호
    • /
    • pp.8-13
    • /
    • 2013
  • Nowadays, the saliency region detection has become a popular research topic because of its uses for many applications like object recognition and object segmentation. Some of recent methods apply color distinctiveness based on an analysis of statistics of color image derivatives in order to boosting color saliency can produce the good saliency maps. However, if the salient regions comprise more than half the pixels of the image or the background is complex, it may cause bad results. In this paper, we introduce the method to handle these problems by using maximum symmetric surround. The results show that our method outperforms the previous algorithms. We also show the segmentation results by using Otsu's method.

  • PDF

Background memory-assisted zero-shot video object segmentation for unmanned aerial and ground vehicles

  • Kimin Yun;Hyung-Il Kim;Kangmin Bae;Jinyoung Moon
    • ETRI Journal
    • /
    • 제45권5호
    • /
    • pp.795-810
    • /
    • 2023
  • Unmanned aerial vehicles (UAV) and ground vehicles (UGV) require advanced video analytics for various tasks, such as moving object detection and segmentation; this has led to increasing demands for these methods. We propose a zero-shot video object segmentation method specifically designed for UAV and UGV applications that focuses on the discovery of moving objects in challenging scenarios. This method employs a background memory model that enables training from sparse annotations along the time axis, utilizing temporal modeling of the background to detect moving objects effectively. The proposed method addresses the limitations of the existing state-of-the-art methods for detecting salient objects within images, regardless of their movements. In particular, our method achieved mean J and F values of 82.7 and 81.2 on the DAVIS'16, respectively. We also conducted extensive ablation studies that highlighted the contributions of various input compositions and combinations of datasets used for training. In future developments, we will integrate the proposed method with additional systems, such as tracking and obstacle avoidance functionalities.

GrabCut의 자동 객체 추출을 위한 저주파 영역 탐지 기반의 윈도우 생성 기법 (Window Production Method based on Low-Frequency Detection for Automatic Object Extraction of GrabCut)

  • 유태훈;이강성;이상훈
    • 디지털융복합연구
    • /
    • 제10권8호
    • /
    • pp.211-217
    • /
    • 2012
  • 기존의 GrabCut 알고리즘은 자동 객체 추출이 아닌 사용자가 객체 영역에 사각형 윈도우를 설정해야하는 알고리즘이다. 본 논문에서는 자동 시스템으로 변환하기 위해 인간의 시각 시스템을 기반으로 영상에서 가장 눈에 띄는 영역을 탐지하는 방법을 연구하였다. 주의 시각 영역인 Saliency Map을 생성하기 위해서 인간이 색채를 감지하는 '적/녹' '황/청'의 대립색설을 기반으로 하는 Lab 색공간을 이용하여 생성한다. 생성된 Saliency Map을 주파수 공간으로 변환하여 저주파 영역에 국부적인 경계를 나타내고 경계를 탐지해내어 Saliency Point를 생성한다. 이렇게 생성된 Saliency Point의 좌표 값을 이용하여 윈도우를 자동으로 생성한 후 GrabCut 알고리즘을 기반으로 객체를 추출하였다. 다양한 영상에 제안한 알고리즘을 적용한 결과 객체 영역에 자동으로 윈도우가 생성되었고 객체가 추출되었다.

Saliency Detection based on Global Color Distribution and Active Contour Analysis

  • Hu, Zhengping;Zhang, Zhenbin;Sun, Zhe;Zhao, Shuhuan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권12호
    • /
    • pp.5507-5528
    • /
    • 2016
  • In computer vision, salient object is important to extract the useful information of foreground. With active contour analysis acting as the core in this paper, we propose a bottom-up saliency detection algorithm combining with the Bayesian model and the global color distribution. Under the supports of active contour model, a more accurate foreground can be obtained as a foundation for the Bayesian model and the global color distribution. Furthermore, we establish a contour-based selection mechanism to optimize the global-color distribution, which is an effective revising approach for the Bayesian model as well. To obtain an excellent object contour, we firstly intensify the object region in the source gray-scale image by a seed-based method. The final saliency map can be detected after weighting the color distribution to the Bayesian saliency map, after both of the two components are available. The contribution of this paper is that, comparing the Harris-based convex hull algorithm, the active contour can extract a more accurate and non-convex foreground. Moreover, the global color distribution can solve the saliency-scattered drawback of Bayesian model, by the mutual complementation. According to the detected results, the final saliency maps generated with considering the global color distribution and active contour are much-improved.