• 제목/요약/키워드: image saliency detection

검색결과 44건 처리시간 0.028초

Image-Based Maritime Obstacle Detection Using Global Sparsity Potentials

  • Mou, Xiaozheng;Wang, Han
    • Journal of information and communication convergence engineering
    • /
    • 제14권2호
    • /
    • pp.129-135
    • /
    • 2016
  • In this paper, we present a novel algorithm for image-based maritime obstacle detection using global sparsity potentials (GSPs), in which "global" refers to the entire sea area. The horizon line is detected first to segment the sea area as the region of interest (ROI). Considering the geometric relationship between the camera and the sea surface, variable-size image windows are adopted to sample patches in the ROI. Then, each patch is represented by its texture feature, and its average distance to all the other patches is taken as the value of its GSP. Thereafter, patches with a smaller GSP are clustered as the sea surface, and patches with a higher GSP are taken as the obstacle candidates. Finally, the candidates far from the mean feature of the sea surface are selected and aggregated as the obstacles. Experimental results verify that the proposed approach is highly accurate as compared to other methods, such as the traditional feature space reclustering method and a state-of-the-art saliency detection method.

구조 텐서 기반의 상품 라벨 검출 (Product Label Detection based on the Local Structure Tensor)

  • 진연연;이명은;김수형
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(C)
    • /
    • pp.397-400
    • /
    • 2011
  • In this paper, we propose an approach to detect the product label for mobile phone images based on saliency map and the local structure tensor. The object boundary information can be better described by the local structure tensor than other edge detectors, and the saliency map methods can find out the most salient area and shorten the computational time by reducing the size of the orignal image. Therefore, these two methods are considered for our product label detection. The experimental results show an acceptable performance based on our proposed approach.

도로주행 영상에서의 차량 번호판 검출 (Vehicle License Plate Detection in Road Images)

  • 임광용;변혜란;최영우
    • 정보과학회 논문지
    • /
    • 제43권2호
    • /
    • pp.186-195
    • /
    • 2016
  • 본 논문에서는 도로주행 영상에서의 자동차 번호판 검출방법을 제안한다. 제안하는 방법은 조명변화에 강인한 8bit-MCT 특징과 랜드마크 기반의 Adaboost 알고리즘을 이용하여 번호판 후보 영역을 생성하고, Adaboost의 검출 스코어를 이용하여 번호판의 위치를 확률로 추정하는 현저도 지도를 생성한다. 현저도 지도에서 임계값 이상의 영역을 번호판 후보 영역으로 검출하고, 각 후보 영역에 대하여 지역분산을 이용하여 영역을 보정한 후 SVM과 8bit-MCT의 히스토그램을 특징으로 사용하여 영역을 검증하고 자동차 번호판 영역을 확정한다. 본 논문에서 제안한 방법을 한국과 유럽의 다양한 도로주행 영상에 적용하여 85%의 안정적인 검출 성능을 실험을 통하여 입증하였다.

ROI 추출을 통한 사진 구도 자동 보정 기법 (Auto Correction Technique of Photography Composition Using ROI Extraction Method)

  • 하호생;박대현;김윤
    • 정보화연구
    • /
    • 제10권1호
    • /
    • pp.113-122
    • /
    • 2013
  • 본 논문에서는 영상을 3분할 기법에 맞춰 재구성함으로써 자동으로 구도를 안정적이고 세련되게 보정하는 기법을 제안한다. Saliency Map과 Image Segmentation기술을 이용하여 사진에서 피사체의 관심영역(Region Of Interest, ROI)을 구하고, 그 영역을 기준으로 3분할 기법에 맞도록 사진을 Cropping하여 구도를 보정한다. 또한, 얼굴 인식(Face Detection)기법을 활용하여 사람의 얼굴을 ROI에 추가하고 ROI에 따른 다양한 시나리오에 의하여 구도를 보정함으로써, 좀 더 자연스러운 사진을 얻는다. 실험결과를 통해 보정된 구도의 사진이 원본사진과 비교하여 자연스럽게 보정이 되었는다는 것을 알 수 있다.

Visual Attention Detection By Adaptive Non-Local Filter

  • Anh, Dao Nam
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제5권1호
    • /
    • pp.49-54
    • /
    • 2016
  • Regarding global and local factors of a set of features, a given single image or multiple images is a common approach in image processing. This paper introduces an application of an adaptive version of non-local filter whose original version searches non-local similarity for removing noise. Since most images involve texture partner in both foreground and background, extraction of signified regions with texture is a challenging task. Aiming to the detection of visual attention regions for images with texture, we present the contrast analysis of image patches located in a whole image but not nearby with assistance of the adaptive filter for estimation of non-local divergence. The method allows extraction of signified regions with texture of images of wild life. Experimental results for a benchmark demonstrate the ability of the proposed method to deal with the mentioned challenge.

Background Prior-based Salient Object Detection via Adaptive Figure-Ground Classification

  • Zhou, Jingbo;Zhai, Jiyou;Ren, Yongfeng;Lu, Ali
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권3호
    • /
    • pp.1264-1286
    • /
    • 2018
  • In this paper, a novel background prior-based salient object detection framework is proposed to deal with images those are more complicated. We take the superpixels located in four borders into consideration and exploit a mechanism based on image boundary information to remove the foreground noises, which are used to form the background prior. Afterward, an initial foreground prior is obtained by selecting superpixels that are the most dissimilar to the background prior. To determine the regions of foreground and background based on the prior of them, a threshold is needed in this process. According to a fixed threshold, the remaining superpixels are iteratively assigned based on their proximity to the foreground or background prior. As the threshold changes, different foreground priors generate multiple different partitions that are assigned a likelihood of being foreground. Last, all segments are combined into a saliency map based on the idea of similarity voting. Experiments on five benchmark databases demonstrate the proposed method performs well when it compares with the state-of-the-art methods in terms of accuracy and robustness.

Accurate Human Localization for Automatic Labelling of Human from Fisheye Images

  • Than, Van Pha;Nguyen, Thanh Binh;Chung, Sun-Tae
    • 한국멀티미디어학회논문지
    • /
    • 제20권5호
    • /
    • pp.769-781
    • /
    • 2017
  • Deep learning networks like Convolutional Neural Networks (CNNs) show successful performances in many computer vision applications such as image classification, object detection, and so on. For implementation of deep learning networks in embedded system with limited processing power and memory, deep learning network may need to be simplified. However, simplified deep learning network cannot learn every possible scene. One realistic strategy for embedded deep learning network is to construct a simplified deep learning network model optimized for the scene images of the installation place. Then, automatic training will be necessitated for commercialization. In this paper, as an intermediate step toward automatic training under fisheye camera environments, we study more precise human localization in fisheye images, and propose an accurate human localization method, Automatic Ground-Truth Labelling Method (AGTLM). AGTLM first localizes candidate human object bounding boxes by utilizing GoogLeNet-LSTM approach, and after reassurance process by GoogLeNet-based CNN network, finally refines them more correctly and precisely(tightly) by applying saliency object detection technique. The performance improvement of the proposed human localization method, AGTLM with respect to accuracy and tightness is shown through several experiments.

인공신경망을 이용한 샷 사이즈 분류를 위한 ROI 탐지 기반의 익스트림 클로즈업 샷 데이터 셋 생성 (Generating Extreme Close-up Shot Dataset Based On ROI Detection For Classifying Shots Using Artificial Neural Network)

  • 강동완;임양미
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.983-991
    • /
    • 2019
  • 본 연구는 영상 샷의 크기에 따라 다양한 스토리를 갖고 있는 영상들을 분석하는 것을 목표로 한다. 따라서 영상 분석에 앞서, 익스트림 클로즈업 샷, 클로즈업 샷, 미디엄 샷, 풀 샷, 롱 샷 등 샷 사이즈에 따라 데이터셋을 분류하는 것이 선행되어야 한다. 하지만 일반적인 비디오 스토리 내의 샷 분포는 클로즈업 샷, 미들 샷, 풀 샷, 롱 샷 위주로 구성되어 있기 때문에 충분한 양의 익스트림 클로즈업 샷 데이터를 얻는 것이 상대적으로 쉽지 않다. 이를 해결하기 위해 본 연구에서는 관심 영역 (Region Of Interest: ROI) 탐지 기반의 이미지 크롭핑을 통해 익스트림 클로즈업 샷을 생성함으로써 영상 분석을 위한 데이터셋을 확보 방법을 제안한다. 제안 방법은 얼굴 인식과 세일리언시(Saliency)를 활용하여 이미지로부터 얼굴 영역 위주의 관심 영역을 탐지한다. 이를 통해 확보된 데이터셋은 인공신경망의 학습 데이터로 사용되어 샷 분류 모델 구축에 활용된다. 이러한 연구는 비디오 스토리에서 캐릭터들의 감정적 변화를 분석하고 시간이 지남에 따라 이야기의 구성이 어떻게 변화하는지 예측 가능하도록 도움을 줄 수 있다. 향후의 엔터테인먼트 분야에 AI 활용이 적극적으로 활용되어질 때 캐릭터, 대화, 이미지 편집 등의 자동 조정, 생성 등에 영향을 줄 것이라 예상한다.

A Novel Text Sample Selection Model for Scene Text Detection via Bootstrap Learning

  • Kong, Jun;Sun, Jinhua;Jiang, Min;Hou, Jian
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.771-789
    • /
    • 2019
  • Text detection has been a popular research topic in the field of computer vision. It is difficult for prevalent text detection algorithms to avoid the dependence on datasets. To overcome this problem, we proposed a novel unsupervised text detection algorithm inspired by bootstrap learning. Firstly, the text candidate in a novel form of superpixel is proposed to improve the text recall rate by image segmentation. Secondly, we propose a unique text sample selection model (TSSM) to extract text samples from the current image and eliminate database dependency. Specifically, to improve the precision of samples, we combine maximally stable extremal regions (MSERs) and the saliency map to generate sample reference maps with a double threshold scheme. Finally, a multiple kernel boosting method is developed to generate a strong text classifier by combining multiple single kernel SVMs based on the samples selected from TSSM. Experimental results on standard datasets demonstrate that our text detection method is robust to complex backgrounds and multilingual text and shows stable performance on different standard datasets.

공개 딥러닝 라이브러리에 대한 보안 취약성 검증 (Security Vulnerability Verification for Open Deep Learning Libraries)

  • 정재한;손태식
    • 정보보호학회논문지
    • /
    • 제29권1호
    • /
    • pp.117-125
    • /
    • 2019
  • 최근 다양한 분야에서 활용중인 딥러닝은 적대적 공격 가능성의 발견으로 위험성이 제기되고 있다. 본 논문에서는 딥러닝의 이미지 분류 모델에서 악의적 공격자가 생성한 적대적 샘플에 의해 분류 정확도가 낮아짐을 실험적으로 검증하였다. 대표적인 이미지 샘플인 MNIST데이터 셋을 사용하였으며, 텐서플로우와 파이토치라이브러리를 사용하여 만든 오토인코더 분류 모델과 CNN(Convolution neural network)분류 모델에 적대적 샘플을 주입하여 탐지 정확도를 측정한다. 적대적 샘플은 MNIST테스트 데이터 셋을 JSMA(Jacobian-based Saliency Map Attack)방법으로 생성한 방법과 FGSM(Fast Gradient Sign Method)방식으로 변형하여 생성하였으며, 분류 모델에 주입하여 측정하였을 때 최소 21.82%에서 최대 39.08%만큼 탐지 정확도가 낮아짐을 검증하였다.