• 제목/요약/키워드: BoVW

검색결과 7건 처리시간 0.02초

이미지 단어집과 관심영역 자동추출을 사용한 이미지 분류 (Image Classification Using Bag of Visual Words and Visual Saliency Model)

  • 장현웅;조수선
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권12호
    • /
    • pp.547-552
    • /
    • 2014
  • 플리커, 페이스북과 같은 대용량 소셜 미디어 공유 사이트의 발전으로 이미지 정보가 매우 빠르게 증가하고 있다. 이에 따라 소셜 이미지를 정확하게 검색하기 위한 다양한 연구가 활발히 진행되고 있다. 이미지 태그들의 의미적 연관성을 이용하여 태그기반의 이미지 검색의 정확도를 높이고자 하는 연구를 비롯하여 이미지 단어집(Bag of Visual Words)을 기반으로 웹 이미지를 분류하는 연구도 다양하게 진행되고 있다. 본 논문에서는 이미지에서 배경과 같은 중요도가 떨어지는 정보를 제거하여 중요부분을 찾는 GBVS(Graph Based Visual Saliency)모델을 기존 연구에 사용할 것을 제안한다. 제안하는 방법은 첫 번째, 이미지 태그들의 의미적 연관성을 이용해 1차 분류된 데이터베이스에 SIFT알고리즘을 사용하여 이미지 단어집(BoVW)을 만든다. 두 번째, 테스트할 이미지에 GBVS를 통해서 이미지의 관심영역을 선택하여 테스트한다. 의미연관성 태그와 SIFT기반의 이미지 단어집을 사용한 기존의 방법에 GBVS를 적용한 결과 더 높은 정확도를 보임을 확인하였다.

특징, 색상 및 텍스처 정보의 가공을 이용한 Bag of Visual Words 이미지 자동 분류 (Improved Bag of Visual Words Image Classification Using the Process of Feature, Color and Texture Information)

  • 박찬혁;권혁신;강석훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 추계학술대회
    • /
    • pp.79-82
    • /
    • 2015
  • 이미지를 분류하고 검색하는 기술(Image retrieval)중 하나인 Bag of visual words(BoVW)는 특징점(feature point)을 이용하는 방법으로 데이터베이스의 이미지 특징벡터들의 분포를 통해 쿼리 이미지를 자동으로 분류하고 검색해주는 시스템이다. Words를 구성하는데 특징벡터만을 이용하는 기존의 방법은 이용자가 원하지 않는 이미지를 검색하거나 분류할 수 있다. 이러한 단점을 해결하기 위해 특징벡터뿐만 아니라 이미지의 전체적인 분위기를 표현할 수 있는 색상정보나 반복되는 패턴 정보를 표현할 수 있는 텍스처 정보를 Words를 구성하는데 포함시킴으로서 다양한 검색을 가능하게 한다. 실험 부분에서는 특징정보만을 가진 words를 이용해 이미지를 분류한 결과와 색상정보와 텍스처 정보가 추가된 words를 가지고 이미지를 분류한 결과를 비교하였고 새로운 방법은 80~90%의 정확도를 나타내었다.

  • PDF

A Salient Based Bag of Visual Word Model (SBBoVW): Improvements toward Difficult Object Recognition and Object Location in Image Retrieval

  • Mansourian, Leila;Abdullah, Muhamad Taufik;Abdullah, Lilli Nurliyana;Azman, Azreen;Mustaffa, Mas Rina
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권2호
    • /
    • pp.769-786
    • /
    • 2016
  • Object recognition and object location have always drawn much interest. Also, recently various computational models have been designed. One of the big issues in this domain is the lack of an appropriate model for extracting important part of the picture and estimating the object place in the same environments that caused low accuracy. To solve this problem, a new Salient Based Bag of Visual Word (SBBoVW) model for object recognition and object location estimation is presented. Contributions lied in the present study are two-fold. One is to introduce a new approach, which is a Salient Based Bag of Visual Word model (SBBoVW) to recognize difficult objects that have had low accuracy in previous methods. This method integrates SIFT features of the original and salient parts of pictures and fuses them together to generate better codebooks using bag of visual word method. The second contribution is to introduce a new algorithm for finding object place based on the salient map automatically. The performance evaluation on several data sets proves that the new approach outperforms other state-of-the-arts.

Recognizing Actions from Different Views by Topic Transfer

  • Liu, Jia
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권4호
    • /
    • pp.2093-2108
    • /
    • 2017
  • In this paper, we describe a novel method for recognizing human actions from different views via view knowledge transfer. Our approach is characterized by two aspects: 1) We propose a unsupervised topic transfer model (TTM) to model two view-dependent vocabularies, where the original bag of visual words (BoVW) representation can be transferred into a bag of topics (BoT) representation. The higher-level BoT features, which can be shared across views, can connect action models for different views. 2) Our features make it possible to obtain a discriminative model of action under one view and categorize actions in another view. We tested our approach on the IXMAS data set, and the results are promising, given such a simple approach. In addition, we also demonstrate a supervised topic transfer model (STTM), which can combine transfer feature learning and discriminative classifier learning into one framework.

다양한 배지종류, sucrose 농도 및 갈변억제물질 처리에 의한 팔레놉시스 PLB 증식 및 재분화 체계확립 (Establishment of proliferation and regeneration system of PLBs in Phalaenopsis by treatments of a variety of types of medium, sucrose concentrations and anti-browning agents)

  • 노희선;김종보
    • Journal of Plant Biotechnology
    • /
    • 제41권4호
    • /
    • pp.223-228
    • /
    • 2014
  • 팔레놉시스 PLB (protocorm-like bodies) 조직을 이용하여 대량증식 및 신초재분화 체계 확립을 위하여 다양한 증식배지, 액체배지와 고체배지의 효과, sucrose 농도 등이 PLB 증식과 신초 재분화에 효과가 있는지 그리고 활성탄소, citric acid 및 ascorbic acid 등이 팔레놉시스 PLB 배양시 갈변화 현상을 감소하는데 효과가 있는지 알아 보고자 본 연구를 수행하였다. 그 결과, 난과 식물에서 증식배지로 널리 사용되는 VW, HCa, Orchimax 및 Kudson C 배지 중 VW 배지가 PLB 증식에서 타 배지와 비교해서 최소 1.3배에서 최대 2배의 증식효율 그리고 신초 재분화에서도 50% 이상 높은 효율을 보여 주었다. 최적 배지로 선정된 VW배지에 apple powder 및 banana powder를 첨가한 VWAB 배지를 기반으로 액체 및 고체배양에서 PLB 증식효율과 신초재분화율을 비교한 결과, 통계적으로 유의한 차이는 발견되지 않았다. Sucrose 농도를 0 ~ 50 g 처리한 실험에서는 PLB 증식과 재분화 효율 둘 다 10 g 처리구에서 가장 좋은 결과를 보여 주었다. 마지막으로 팔레놉시스 PLB 증식 및 재분화 과정에서 자주 발생하는 갈변화를 감소시키기 위하여 활성탄소, citric acid와 ascorbic acid를 처리한 실험에서는 활성탄소 1 g이 1.5%의 가장 낮은 갈변율을 나타내었다. 이러한 실험결과는 향후 팔레놉시스 PLB를 이용한 대량증식 및 재분화 체계 확립에 크게 기여하리라 판단된다.

Bag of Visual Words Method based on PLSA and Chi-Square Model for Object Category

  • Zhao, Yongwei;Peng, Tianqiang;Li, Bicheng;Ke, Shengcai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권7호
    • /
    • pp.2633-2648
    • /
    • 2015
  • The problem of visual words' synonymy and ambiguity always exist in the conventional bag of visual words (BoVW) model based object category methods. Besides, the noisy visual words, so-called "visual stop-words" will degrade the semantic resolution of visual dictionary. In view of this, a novel bag of visual words method based on PLSA and chi-square model for object category is proposed. Firstly, Probabilistic Latent Semantic Analysis (PLSA) is used to analyze the semantic co-occurrence probability of visual words, infer the latent semantic topics in images, and get the latent topic distributions induced by the words. Secondly, the KL divergence is adopt to measure the semantic distance between visual words, which can get semantically related homoionym. Then, adaptive soft-assignment strategy is combined to realize the soft mapping between SIFT features and some homoionym. Finally, the chi-square model is introduced to eliminate the "visual stop-words" and reconstruct the visual vocabulary histograms. Moreover, SVM (Support Vector Machine) is applied to accomplish object classification. Experimental results indicated that the synonymy and ambiguity problems of visual words can be overcome effectively. The distinguish ability of visual semantic resolution as well as the object classification performance are substantially boosted compared with the traditional methods.

공간과 시간적 특징 융합 기반 유해 비디오 분류에 관한 연구 (Using the fusion of spatial and temporal features for malicious video classification)

  • 전재현;김세민;한승완;노용만
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.365-374
    • /
    • 2011
  • 최근 인터넷, IPTV/SMART TV, 소셜 네트워크 (social network)와 같은 정보 유통 채널의 다양화로 유해 비디오 분류 및 차단 기술 연구에 대한 요구가 높아가고 있으나, 현재까지는 비디오에 대한 유해성을 판단하는 연구는 부족한 실정이다. 기존 유해 이미지 분류 연구에서는 이미지에서의 피부 영역의 비율이나 Bag of Visual Words (BoVW)와 같은 공간적 특징들 (spatial features)을 이용하고 있다. 그러나, 비디오에서는 공간적 특징 이외에도 모션 반복성 특징이나 시간적 상관성 (temporal correlation)과 같은 시간적 특징들 (temporal features)을 추가적으로 이용하여 유해성을 판단할 수 있다. 기존의 유해 비디오 분류 연구에서는 공간적 특징과 시간적 특징들에서 하나의 특징만을 사용하거나 두 개의 특징들을 단순히 결정 단계에서 데이터 융합하여 사용하고 있다. 일반적으로 결정 단계 데이터 융합 방법은 특징 단계 데이터 융합 방법보다 높은 성능을 가지지 못한다. 본 논문에서는 기존의 유해 비디오 분류 연구에서 사용되고 있는 공간적 특징과 시간적 특징들을 특징 단계 융합 방법을 이용하여 융합하여 유해 비디오를 분류하는 방법을 제안한다. 실험에서는 사용되는 특징이 늘어남에 따른 분류 성능 변화와 데이터 융합 방법의 변화에 따른 분류 성능 변화를 보였다. 공간적 특징만을 이용하였을 때에는 92.25%의 유해 비디오 분류 성능을 보이는데 반해, 모션 반복성 특징을 이용하고 특징 단계 데이터 융합 방법을 이용하게 되면 96%의 향상된 분류 성능을 보였다.