• 제목/요약/키워드: Saliency Map

검색결과 102건 처리시간 0.021초

Salient Object Detection Based on Regional Contrast and Relative Spatial Compactness

  • Xu, Dan;Tang, Zhenmin;Xu, Wei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권11호
    • /
    • pp.2737-2753
    • /
    • 2013
  • In this study, we propose a novel salient object detection strategy based on regional contrast and relative spatial compactness. Our algorithm consists of four basic steps. First, we learn color names offline using the probabilistic latent semantic analysis (PLSA) model to find the mapping between basic color names and pixel values. The color names can be used for image segmentation and region description. Second, image pixels are assigned to special color names according to their values, forming different color clusters. The saliency measure for every cluster is evaluated by its spatial compactness relative to other clusters rather than by the intra variance of the cluster alone. Third, every cluster is divided into local regions that are described with color name descriptors. The regional contrast is evaluated by computing the color distance between different regions in the entire image. Last, the final saliency map is constructed by incorporating the color cluster's spatial compactness measure and the corresponding regional contrast. Experiments show that our algorithm outperforms several existing salient object detection methods with higher precision and better recall rates when evaluated using public datasets.

Background Prior-based Salient Object Detection via Adaptive Figure-Ground Classification

  • Zhou, Jingbo;Zhai, Jiyou;Ren, Yongfeng;Lu, Ali
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권3호
    • /
    • pp.1264-1286
    • /
    • 2018
  • In this paper, a novel background prior-based salient object detection framework is proposed to deal with images those are more complicated. We take the superpixels located in four borders into consideration and exploit a mechanism based on image boundary information to remove the foreground noises, which are used to form the background prior. Afterward, an initial foreground prior is obtained by selecting superpixels that are the most dissimilar to the background prior. To determine the regions of foreground and background based on the prior of them, a threshold is needed in this process. According to a fixed threshold, the remaining superpixels are iteratively assigned based on their proximity to the foreground or background prior. As the threshold changes, different foreground priors generate multiple different partitions that are assigned a likelihood of being foreground. Last, all segments are combined into a saliency map based on the idea of similarity voting. Experiments on five benchmark databases demonstrate the proposed method performs well when it compares with the state-of-the-art methods in terms of accuracy and robustness.

신경망 근사에 의한 다중 레이어의 클래스 활성화 맵을 이용한 블랙박스 모델의 시각적 설명 기법 (Visual Explanation of Black-box Models Using Layer-wise Class Activation Maps from Approximating Neural Networks)

  • 강준규;전민경;이현석;김성찬
    • 대한임베디드공학회논문지
    • /
    • 제16권4호
    • /
    • pp.145-151
    • /
    • 2021
  • In this paper, we propose a novel visualization technique to explain the predictions of deep neural networks. We use knowledge distillation (KD) to identify the interior of a black-box model for which we know only inputs and outputs. The information of the black box model will be transferred to a white box model that we aim to create through the KD. The white box model will learn the representation of the black-box model. Second, the white-box model generates attention maps for each of its layers using Grad-CAM. Then we combine the attention maps of different layers using the pixel-wise summation to generate a final saliency map that contains information from all layers of the model. The experiments show that the proposed technique found important layers and explained which part of the input is important. Saliency maps generated by the proposed technique performed better than those of Grad-CAM in deletion game.

텐서보팅과 마르코프 랜덤 필드를 이용한 자연 영상의 텍스트 이진화 (Natural Scene Text Binarization using Tensor Voting and Markov Random Field)

  • 최현수;이귀상
    • 스마트미디어저널
    • /
    • 제4권4호
    • /
    • pp.18-23
    • /
    • 2015
  • 본 논문에서는 텐서보팅을 이용하여 기존 마르코프 랜덤 필드 메소드 안의 가우시안 혼합 모델 함수의 성능을 향상시킬 수 있는 적합한 클러스터 개수 검출 방법을 제시한다. 제안하는 방법의 핵심 포인트는 텐서보팅의 인풋 데이터 토큰의 연속성인 saliency map을 통한 중심점 개수의 추출이다. 우리는 가장 먼저 주어진 자연 영상에서 전경 및 배경 후보 영역을 분리한다. 다음으로, 분리된 각 후보 영역에 대하여 텐서보팅을 적용하여 적절한 클러스터 개수를 추출한다. 우리는 검출된 클러스터 개수를 이용하여 정확한 가우시안 혼합 모델 모델링을 수행할 수 있다. 그리고 이를 적용한 마르코프 랜덤 필드의 unary term과 pairwise term을 계산하여 자연 영상의 텍스트 이진화 결과를 반환한다. 실험 결과, 제안된 방법이 최적의 클러스터 개수를 반환하고, 향상된 텍스트 이진화 결과를 반환함을 확인하였다.

실시간 상황 인식을 위한 센서 운용 모드 기반 항공 영상 요약 기법 (Aerial Video Summarization Approach based on Sensor Operation Mode for Real-time Context Recognition)

  • 이준표
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권6호
    • /
    • pp.87-97
    • /
    • 2015
  • 항공 영상 요약은 무인항공기를 통해 획득된 전체 영상의 내용을 제한된 시간 내에 효과적으로 브라우징 함으로써 감시 정찰 지역에 대한 상황 인식을 가능하게 하는 기술이다. 항공 영상의 정확한 요약을 수행하기 위해 본 논문에서는 센서 운용 모드를 집중감시, 전역감시 그리고 구역감시모드로 구분하고 해당 센서 운용 모드의 특성을 고려하여 항공 영상 요약을 수행한다. 특히 집중감시 모드에서의 영상 요약은 화면 내 움직임이 있는 관심 객체의 지속적인 추적을 기반으로 수행되며 이를 위해 본 논문에서는 지역 움직임 벡터(partitioning motion vector)와 해당 벡터가 발생한 영역에서의 시공간적 중요도 지도(spatiotemporal saliency map)를 활용한 움직임 반응 추적 기법을 제안한다. 제안하는 알고리즘의 효율성과 적합성을 확인하기 위해 실 항공 영상을 대상으로 실험을 수행하였다. 도출된 실험 결과를 통해 제안하는 방법은 전체 항공 영상에서의 영상 요약을 위해 센서 운용 모드에 따라 정확한 대표 프레임을 검출하였으며 이에 따라 대용량의 무인항공기 획득 영상이 효과적으로 요약될 수 있음을 확인하였다.

자연 영상에서의 정확한 문자 검출에 관한 연구 (A Study on Localization of Text in Natural Scene Images)

  • 최미영;김계영;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.77-84
    • /
    • 2008
  • 본 논문에서는 자연영상에 존재하는 문자들을 효율적으로 검출하기 위한 새로운 접근 방법을 제안한다. 빛 또는 조명의 영향에 의해 획득된 영상 내에 존재하는 반사성분은 문자 또는 관심객체들의 경계가 모호해 지거나 관심객체와 배경이 서로 혼합되었을 경우, 문자추출 및 인식을 함에 있어서 오류를 포함시킬 수 있다. 따라서 영상 내에 존재하는 반사성분을 제거하기 위해 먼저, 영상으로부터 Red컬러 성분에 해당하는 히스토그램에서 두개의 피크 점을 검출한다. 검출된 두 개의 피크 점들 간의 분포를 사용하여 노말 또는 편광 영상에 해당하는지를 판별한다. 노말 영상의 경우 부가적인 처리를 거치지 않고 문자영역을 검출하며 편광 영상인 경우 조명성분을 제거하기 위해 호모모픽 필터링 방법을 적용하여 반사성분에 해당하는 영역을 제거한다. 그리고 문자영역을 검출하기 위해 색 병합과 세일런스 맵을 이용하여 각각의 문자 후보영역을 결정한다. 마지막으로 두 후보영역을 이용하여 최종 문자영역을 검출한다.

  • PDF

Dual-stream Co-enhanced Network for Unsupervised Video Object Segmentation

  • Hongliang Zhu;Hui Yin;Yanting Liu;Ning Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.938-958
    • /
    • 2024
  • Unsupervised Video Object Segmentation (UVOS) is a highly challenging problem in computer vision as the annotation of the target object in the testing video is unknown at all. The main difficulty is to effectively handle the complicated and changeable motion state of the target object and the confusion of similar background objects in video sequence. In this paper, we propose a novel deep Dual-stream Co-enhanced Network (DC-Net) for UVOS via bidirectional motion cues refinement and multi-level feature aggregation, which can fully take advantage of motion cues and effectively integrate different level features to produce high-quality segmentation mask. DC-Net is a dual-stream architecture where the two streams are co-enhanced by each other. One is a motion stream with a Motion-cues Refine Module (MRM), which learns from bidirectional optical flow images and produces fine-grained and complete distinctive motion saliency map, and the other is an appearance stream with a Multi-level Feature Aggregation Module (MFAM) and a Context Attention Module (CAM) which are designed to integrate the different level features effectively. Specifically, the motion saliency map obtained by the motion stream is fused with each stage of the decoder in the appearance stream to improve the segmentation, and in turn the segmentation loss in the appearance stream feeds back into the motion stream to enhance the motion refinement. Experimental results on three datasets (Davis2016, VideoSD, SegTrack-v2) demonstrate that DC-Net has achieved comparable results with some state-of-the-art methods.

돌출영역 분할을 위한 대립과정이론 기반의 인공시각집중모델 (An Artificial Visual Attention Model based on Opponent Process Theory for Salient Region Segmentation)

  • 정기선;홍창표;박동선
    • 전자공학회논문지
    • /
    • 제51권7호
    • /
    • pp.157-168
    • /
    • 2014
  • 본 논문에서는 자연영상에 대한 돌출영역을 자동으로 검출하고 이를 분할하기 위한 새로운 인공시각집중모델을 제안한다. 제안된 모델은 인간의 생물학적 시각인지 기반이며 주된 특징은 다음과 같다. 먼저 영상의 강도특징과 색상특징을 사용하는 대립과정이론 기반의 새로운 인공시각집중모델의 구조를 제안하고, 돌출영역을 인지하기 위해 영상의 강도 및 색상 특징채널의 정보량을 고려하는 엔트로피 필터를 설계하였다. 엔트로피 필터는 높은 정확도와 정밀도로 돌출영역에 대해 검출 및 분할이 가능하다. 마지막으로 최종 돌출지도를 효율적으로 구성하기 위한 적응 조합 방법 또한 제안되었다. 이 방법은 각 인지 모델로부터 검출된 강도 및 색상 가시성지도에 대하여 평가하며 평가된 점수로부터 얻어진 가중치를 이용해 가시성 지도들을 조합한다. 돌출지도에 대해 ROC분석을 이용한 AUC를 측정한 결과 기존 최신의 모델들은 평균 0.7824의 성능을 나타낸 반면 제안된 모델의 AUC는 0.9256으로서 약 15%의 성능 개선을 보였다. 또한 돌출영역 분할에 대해 F-beta를 측정한 결과 기존 최신의 모델은 0.5178이고 제안된 모델은 0.7325로서 분할 성능 또한 약 22%의 성능 개선을 보였다.

Chessboard and Pieces Detection for Janggi Chess Playing Robot

  • Nhat, Vo Quang;Lee, GueeSang
    • International Journal of Contents
    • /
    • 제9권4호
    • /
    • pp.16-21
    • /
    • 2013
  • Vision system is an indispensable part of constructing the chess-playing robot. Chessboard detection and pieces localization in the captured image of robot's camera are important steps for processes followed such as pieces recognition, move calculation, and robot controlling. We present a method for detecting the Janggi chessboard and pieces based on the edge and color feature. Hough transform combined with line extraction is used for segmenting the chessboard and warping it to form the rectangle shape in order to detect and interpolate the lines of chessboard. Then we detect the existence of pieces and their side by applying the saliency map and checking the color distribution at piece locations. While other methods either work only with the empty chessboard or do not care about the piece existence, our method could detect sufficiently side and position of pieces as well as lines of the chessboard even if the occlusion happens.

영상의 주파수-명도 특성을 이용한 관심 영역 탐지에 관한 연구 (A Study on Detecting Salient Region using Frequency-Luminance of image)

  • 유태훈;이종용;김진수;이상훈
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2012년도 춘계학술논문집 2부
    • /
    • pp.486-489
    • /
    • 2012
  • 본 논문에서는 인간의 주의시각(Human Visual Attention)에 기반하여 영상에서 가장 유용하다고 생각되는 관심 영역(Salient Region)을 새로운 방식으로 탐지해내고 관심-객체를 검출하는 방법을 제안한다. 제안하는 시스템은 인간의 주의시각 특성인 주파수와 명도, 색상 특징을 이용하는데, 먼저 주파수-명도 정보를 이용한 특징 지도(Feature map)와 색상 정보를 이용한 특징 지도를 각각 생성 한 후 영상의 특징 점(Saliency Point)을 추출한다. 이렇게 생성된 특징 지도와 특징 점을 이용하여 집중 윈도우의 위치와 크기를 결정하고 집중 윈도우 내에 특징 지도를 결합하여 관심 영역을 탐지하고 해당하는 영역에 대해 관심-객체를 추출한다.

  • PDF