• 제목/요약/키워드: image saliency

검색결과 101건 처리시간 0.036초

윤곽선 정보 기반의 Saliency Map과 객체 후보 영상을 이용한 객체 추출 기법 (Object Extraction Method Using Contour Information-based Saliency Map and Object andidate Image)

  • 한성호;박영수;정계동;이상훈
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2012년도 춘계학술논문집 2부
    • /
    • pp.527-530
    • /
    • 2012
  • 본 논문은 윤곽선이 두드러지는 Saliency Map모델을 생성하고 객체 후보 영상을 획득하여 객체를 추출할 수 있는 기법에 관한 연구이다. 제안하는 기법은 객체의 윤곽선 정보가 두드러지는 Saliency Map을 생성하기 위해 에지(Edge), 초점(Focus), 엔트로피(Entropy)를 특징 정보로써 사용하고, 획득한 Saliency Map의 임계화 과정 및 라벨링 과정을 통해 배경 영역을 제거한 객체 후보 영상을 획득한다. 이후 Mean Shift Segmentation 알고리즘을 적용한 영상의 세그먼트별 객체 후보 영상의 픽셀 평균값을 적용한 영상을 다시 라벨링 과정을 이용하여 객체를 추출한다.

  • PDF

Saliency Map을 이용한 대표 색상 기반의 영상 검색 (Dominant Color Based Image Retrieval using Saliency Map)

  • 안재현;이상화;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 추계학술대회
    • /
    • pp.213-216
    • /
    • 2013
  • 본 논문에서는 객체 위주의 컬러 영상 검색을 위하여 영상의 saliency map을 이용해 객체 중심의 영상을 생성하고, 객체와 그 주변 영역에서의 대표 색상이 가지는 통계적 특성과 공간적 분포 정보를 이용하는 방법을 제안한다. 먼저, 영상의 saliency map을 이진화하여 영상을 객체/배경으로 분할하고 객체를 중심으로 객체/배경의 비율이 일정한 일정 크기의 영상을 생성한다. 생성된 영상에서 대표 색상을 추출하고, 각 색상이 영상에서 어떻게 분포하는가를 나타내는 이진 공간분포 지도를 형성한다. 그 후 영상 간의 대표 색상마다 이진 공간분포의 차이를 비교함으로써, 색상의 통계적 특성과 공간적 분포가 동시에 반영된 특징으로 영상을 검색한다. 본 논문에서 제안한 saliency map을 이용한 대표 색상 기반의 영상 검색 기법은 기존의 대표 색상 기반의 영상 검색보다 우수한 성능을 보여준다.

  • PDF

Saliency Detection based on Global Color Distribution and Active Contour Analysis

  • Hu, Zhengping;Zhang, Zhenbin;Sun, Zhe;Zhao, Shuhuan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권12호
    • /
    • pp.5507-5528
    • /
    • 2016
  • In computer vision, salient object is important to extract the useful information of foreground. With active contour analysis acting as the core in this paper, we propose a bottom-up saliency detection algorithm combining with the Bayesian model and the global color distribution. Under the supports of active contour model, a more accurate foreground can be obtained as a foundation for the Bayesian model and the global color distribution. Furthermore, we establish a contour-based selection mechanism to optimize the global-color distribution, which is an effective revising approach for the Bayesian model as well. To obtain an excellent object contour, we firstly intensify the object region in the source gray-scale image by a seed-based method. The final saliency map can be detected after weighting the color distribution to the Bayesian saliency map, after both of the two components are available. The contribution of this paper is that, comparing the Harris-based convex hull algorithm, the active contour can extract a more accurate and non-convex foreground. Moreover, the global color distribution can solve the saliency-scattered drawback of Bayesian model, by the mutual complementation. According to the detected results, the final saliency maps generated with considering the global color distribution and active contour are much-improved.

중요도 맵과 최댓값 필터를 이용한 영상 자막 영역 추출 (Image Caption Area extraction using Saliency Map and Max Filter)

  • 김영진;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2014년도 추계학술대회
    • /
    • pp.63-64
    • /
    • 2014
  • 본 논문에서는 Saliency map과 Max Filter를 이용한 영상의 자막영역을 추출 한다. Saliency map은 눈에 띄는 영역, 즉 영상에서 주변영역에 비해 밝기 차이가 심한 영역과 윤곽선에 대한 특징이 강한 영역을 돌출하는 것을 말하며, MaxFilter는 중심 픽셀을 최대 윈도우 값을 사용하는 것으로 극단적인 Impulse Noise를 제거하는데 효과적이며 특히 어두운 스파이크를 제거하는데 유용하게 사용된다. 이 두 가지의 특징들을 이용하여 영상의 자막 영역을 추출한다.

  • PDF

차폐영역 정보와 그리드 메쉬 기반의 영상 워핑을 이용한 다시점 영상 생성 (Multi-view Image Generation using Grid-mesh based Image Domain Warping and Occlusion Region Information)

  • 임종명;엄기문;신홍창;이광순;허남호;유지상
    • 방송공학회논문지
    • /
    • 제18권6호
    • /
    • pp.859-871
    • /
    • 2013
  • 본 논문에서는 스테레오 영상에서 얻은 다양한 특징들과 차폐영역에 대한 정보들을 활용하여 그리드 메쉬(grid-mesh) 기반의 영상워핑 기법을 통해 다시점 영상을 생성하는 방법을 제안한다. 제안된 기법에서는 먼저 주어진 스테레오 영상에서 영상 특징 지도(image saliency map), 직선 성분(line segments) 그리고 변이 특징 지도(disparity saliency map)를 추출하고, 추출된 특징들에 대하여 품질을 향상시키는 과정을 거친다. 이 과정은 두 가지 단계로 나뉘는데, 먼저 차폐영역에 대한 정보를 활용하여 객체의 경계 부근에서 추출된 변이 특징 지도의 신뢰도를 향상시킨다. 다음으로 스테레오 영상에서의 시간적 일관성(temporal consistency)에 대한 정보를 활용하여 추출된 영상 특징들의 시간적 일관성을 높인다. 이렇게 품질이 향상된 특징 성분들을 활용하여 그리드 메쉬 기반의 영상 워핑 기법을 통해 다시점 영상을 생성한다. 실험 결과를 통해 제안된 기법으로 생성한 다시점 영상의 주관적 화질 측면에서 기존의 다시점 영상 생성 기법들보다 우수한 것을 확인할 수 있었다.

현저성과 분산을 이용한 적외선과 가시영상의 2단계 스케일 융합방법 (Two Scale Fusion Method of Infrared and Visible Images Using Saliency and Variance)

  • 김영춘;안상호
    • 한국멀티미디어학회논문지
    • /
    • 제19권12호
    • /
    • pp.1951-1959
    • /
    • 2016
  • In this paper, we propose a two-scale fusion method for infrared and visible images using saliency and variance. The images are separated into two scales respectively: a base layer of low frequency component and a detailed layer of high frequency component. Then, these are synthesized using weight. The saliencies and the variances of the images are used as the fusion weights for the two-scale images. The proposed method is tested on several image pairs, and its performance is evaluated quantitatively by using objective fusion metrics.

Unconstrained Object Segmentation Using GrabCut Based on Automatic Generation of Initial Boundary

  • Na, In-Seop;Oh, Kang-Han;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제9권1호
    • /
    • pp.6-10
    • /
    • 2013
  • Foreground estimation in object segmentation has been an important issue for last few decades. In this paper we propose a GrabCut based automatic foreground estimation method using block clustering. GrabCut is one of popular algorithms for image segmentation in 2D image. However GrabCut is semi-automatic algorithm. So it requires the user input a rough boundary for foreground and background. Typically, the user draws a rectangle around the object of interest manually. The goal of proposed method is to generate an initial rectangle automatically. In order to create initial rectangle, we use Gabor filter and Saliency map and then we use 4 features (amount of area, variance, amount of class with boundary area, amount of class with saliency map) to categorize foreground and background. From the experimental results, our proposed algorithm can achieve satisfactory accuracy in object segmentation without any prior information by the user.

Co-saliency Detection Based on Superpixel Matching and Cellular Automata

  • Zhang, Zhaofeng;Wu, Zemin;Jiang, Qingzhu;Du, Lin;Hu, Lei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2576-2589
    • /
    • 2017
  • Co-saliency detection is a task of detecting same or similar objects in multi-scene, and has been an important preprocessing step for multi-scene image processing. However existing methods lack efficiency to match similar areas from different images. In addition, they are confined to single image detection without a unified framework to calculate co-saliency. In this paper, we propose a novel model called Superpixel Matching-Cellular Automata (SMCA). We use Hausdorff distance adjacent superpixel sets instead of single superpixel since the feature matching accuracy of single superpixel is poor. We further introduce Cellular Automata to exploit the intrinsic relevance of similar regions through interactions with neighbors in multi-scene. Extensive evaluations show that the SMCA model achieves leading performance compared to state-of-the-art methods on both efficiency and accuracy.

Triqubit-State Measurement-Based Image Edge Detection Algorithm

  • Wang, Zhonghua;Huang, Faliang
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1331-1346
    • /
    • 2018
  • Aiming at the problem that the gradient-based edge detection operators are sensitive to the noise, causing the pseudo edges, a triqubit-state measurement-based edge detection algorithm is presented in this paper. Combing the image local and global structure information, the triqubit superposition states are used to represent the pixel features, so as to locate the image edge. Our algorithm consists of three steps. Firstly, the improved partial differential method is used to smooth the defect image. Secondly, the triqubit-state is characterized by three elements of the pixel saliency, edge statistical characteristics and gray scale contrast to achieve the defect image from the gray space to the quantum space mapping. Thirdly, the edge image is outputted according to the quantum measurement, local gradient maximization and neighborhood chain code searching. Compared with other methods, the simulation experiments indicate that our algorithm has less pseudo edges and higher edge detection accuracy.

Person Re-identification using Sparse Representation with a Saliency-weighted Dictionary

  • Kim, Miri;Jang, Jinbeum;Paik, Joonki
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제6권4호
    • /
    • pp.262-268
    • /
    • 2017
  • Intelligent video surveillance systems have been developed to monitor global areas and find specific target objects using a large-scale database. However, person re-identification presents some challenges, such as pose change and occlusions. To solve the problems, this paper presents an improved person re-identification method using sparse representation and saliency-based dictionary construction. The proposed method consists of three parts: i) feature description based on salient colors and textures for dictionary elements, ii) orthogonal atom selection using cosine similarity to deal with pose and viewpoint change, and iii) measurement of reconstruction error to rank the gallery corresponding a probe object. The proposed method provides good performance, since robust descriptors used as a dictionary atom are generated by weighting some salient features, and dictionary atoms are selected by reducing excessive redundancy causing low accuracy. Therefore, the proposed method can be applied in a large scale-database surveillance system to search for a specific object.