• 제목/요약/키워드: Color and Texture Feature

검색결과 137건 처리시간 0.033초

COLORNET: Importance of Color Spaces in Content based Image Retrieval

  • Judy Gateri;Richard Rimiru;Micheal Kimwele
    • International Journal of Computer Science & Network Security
    • /
    • 제23권5호
    • /
    • pp.33-40
    • /
    • 2023
  • The mainstay of current image recovery frameworks is Content-Based Image Retrieval (CBIR). The most distinctive retrieval method involves the submission of an image query, after which the system extracts visual characteristics such as shape, color, and texture from the images. Most of the techniques use RGB color space to extract and classify images as it is the default color space of the images when those techniques fail to change the color space of the images. To determine the most effective color space for retrieving images, this research discusses the transformation of RGB to different color spaces, feature extraction, and usage of Convolutional Neural Networks for retrieval.

개선된 신경망 알고리즘을 이용한 영상 클러스터링 (Image Clustering using Improved Neural Network Algorithm)

  • 박상성;이만희;유헌우;문호석;장동식
    • 제어로봇시스템학회논문지
    • /
    • 제10권7호
    • /
    • pp.597-603
    • /
    • 2004
  • In retrieving large database of image data, the clustering is essential for fast retrieval. However, it is difficult to cluster a number of image data adequately. Moreover, current retrieval methods using similarities are uncertain of retrieval accuracy and take much retrieving time. In this paper, a suggested image retrieval system combines Fuzzy ART neural network algorithm to reinforce defects and to support them efficiently. This image retrieval system takes color and texture as specific feature required in retrieval system and normalizes each of them. We adapt Fuzzy ART algorithm as neural network which receive normalized input-vector and propose improved Fuzzy ART algorithm. The result of implementation with 200 image data shows approximately retrieval ratio of 83%.

여현변환 계수를 이용한 이미지 탐색 알고리즘 (A Image Search Algorithm using Coefficients of The Cosine Transform)

  • 이석한
    • 한국정보전자통신기술학회논문지
    • /
    • 제12권1호
    • /
    • pp.13-21
    • /
    • 2019
  • 내용기반 영상검색은 영상 내의 정보인 색상, 질감, 형태 등의 특징 값을 추출하여 검색에 이용한다. 본 논문에서는 $8{\times}8$ 이산여현변환, 즉 $8{\times}8$ DCT(Discrete Cosine Transform) 후 얻어지는 DC, AC계수를 이용하여 필터뱅크(filter-bank)를 생성하고, 이를 영상의 내용기반 검색에 이용하는 검색방법을 제안한다. 제안된 방법은 생성된 DCT 필터뱅크에서 DC성분과 주요한 AC성분인 AC01, AC10, AC11 만을 이용하며, DC성분에 대한 양자화를 수행하여 계산량을 최소화한다. 그리고 양자화된 DC성분에 대한 히스토그램 정보를 기반으로 영상 검색에 필요한 특징 값을 산출한다. AC성분에 대해서는 Otsu 이진화를 통하여 개괄적인 형태정보를 취득한 다음 이에 대한 수평/수직 방향으로의 투영 히스토그램을 계산하여 특징 값을 취득한다. 추출된 AC성분의 특징 값은 DC성분의 특징 값과 함께, 특징벡터 빈(feature vector bins)을 구성하여 검색을 수행한다. 실험은 1000장의 데이터베이스를 이용하여 수행 되었으며, 기존의 색상정보를 이용한 검색방법보다 우수한 성능을 보임을 확인하였다.

Feature-Based Image Retrieval using SOM-Based R*-Tree

  • Shin, Min-Hwa;Kwon, Chang-Hee;Bae, Sang-Hyun
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2003년도 Proceeding
    • /
    • pp.223-230
    • /
    • 2003
  • Feature-based similarity retrieval has become an important research issue in multimedia database systems. The features of multimedia data are useful for discriminating between multimedia objects (e 'g', documents, images, video, music score, etc.). For example, images are represented by their color histograms, texture vectors, and shape descriptors, and are usually high-dimensional data. The performance of conventional multidimensional data structures(e'g', R- Tree family, K-D-B tree, grid file, TV-tree) tends to deteriorate as the number of dimensions of feature vectors increases. The R*-tree is the most successful variant of the R-tree. In this paper, we propose a SOM-based R*-tree as a new indexing method for high-dimensional feature vectors.The SOM-based R*-tree combines SOM and R*-tree to achieve search performance more scalable to high dimensionalities. Self-Organizing Maps (SOMs) provide mapping from high-dimensional feature vectors onto a two dimensional space. The mapping preserves the topology of the feature vectors. The map is called a topological of the feature map, and preserves the mutual relationship (similarity) in the feature spaces of input data, clustering mutually similar feature vectors in neighboring nodes. Each node of the topological feature map holds a codebook vector. A best-matching-image-list. (BMIL) holds similar images that are closest to each codebook vector. In a topological feature map, there are empty nodes in which no image is classified. When we build an R*-tree, we use codebook vectors of topological feature map which eliminates the empty nodes that cause unnecessary disk access and degrade retrieval performance. We experimentally compare the retrieval time cost of a SOM-based R*-tree with that of an SOM and an R*-tree using color feature vectors extracted from 40, 000 images. The result show that the SOM-based R*-tree outperforms both the SOM and R*-tree due to the reduction of the number of nodes required to build R*-tree and retrieval time cost.

  • PDF

A STORAGE AND RETRIEVAL SYSTEM FOR LARGE COLLECTIONS OF REMOTE SENSING IMAGES

  • Kwak Nohyun;Chung Chin-Wan;Park Ho-hyun;Lee Seok-Lyong;Kim Sang-Hee
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.763-765
    • /
    • 2005
  • In the area of remote sensing, an immense number of images are continuously generated by various remote sensing systems. These images must then be managed by a database system efficient storage and retrieval. There are many types of image database systems, among which the content-based image retrieval (CBIR) system is the most advanced. CBIR utilizes the metadata of images including the feature data for indexing and searching images. Therefore, the performance of image retrieval is significantly affected by the storage method of the image metadata. There are many features of images such as color, texture, and shape. We mainly consider the shape feature because shape can be identified in any remote sensing while color does not always necessarily appear in some remote sensing. In this paper, we propose a metadata representation and storage method for image search based on shape features. First, we extend MPEG-7 to describe the shape features which are not defined in the MPEG-7 standard. Second, we design a storage schema for storing images and their metadata in a relational database system. Then, we propose an efficient storage method for managing the shape feature data using a Wavelet technique. Finally, we provide the performance results of our proposed storage method.

  • PDF

영상 특징 선택을 위한 유전 알고리즘 (Genetic Algorithm for Image Feature Selection)

  • 신영근;박상성;장동식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.193-195
    • /
    • 2006
  • As multimedia information increases sharply, In image retrieval field the method that can analyze image data quickly and exactly is required. In the case of image data, because each data includes a lot of informations, between accuracy and speed of retrieval become trade-off. To solve these problem, feature vector extracting process that use Genetic Algorithm for implementing prompt and correct image clustering system in case of retrieval of mass image data is proposed. After extracting color and texture features, the representative feature vector among these features is extracted by using Genetic Algorithm.

  • PDF

의상 특징 기반의 동일인 식별 (Person Identification based on Clothing Feature)

  • 최유주;박선미;조위덕;김구진
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-7
    • /
    • 2010
  • 비전 기반의 감시 시스템에서 동일인의 식별은 매우 중요하다. 감시 시스템에서 주로 사용되는 CCTV 카메라의 영상은 상대적으로 낮은 해상도를 가지므로 얼굴 인식 기법을 이용하여 동일인을 식별하기는 어렵다. 본 논문에서는 CCTV 카메라 영상에서 의상 특징을 이용하여 동일인을 식별하는 알고리즘을 제안한다. 건물의 주출입구에서 출입자가 인증을 받을 때, 의상 특징이 데이터베이스에 저장된다. 그 후, 건물 내에서 촬영한 영상에 대해 배경 차감 및 피부색 발견 기법을 이용하여 의상 영역을 발견한다. 의상의 특징 벡터는 텍스처와 색상 특징을 이용하여 구성한다. 텍스처 특징은 지역적 에지 히스토그램을 이용하여 추출된다. 색상 특징은 색상 지도의 옥트리 기반 양자화(octree-based quantization)를 이용하여 추출된다. 건물 내의 촬영 영상이 주어질 때, 데이터베이스에서 의상 특징이 가장 유사한 사람을 발견함으로써 동일인을 식별하며, 의상 특징 벡터 간의 유사도 측정을 위해서는 유클리디안 거리(Euclidean distance)를 사용한다. 실험 결과, 얼굴인식 기법이 최대 43%의 성공률을 보인 데 비해, 의상 특징을 이용하여 80%의 성공률로 동일인을 식별하였다.

비디오 감시 응용에서 확장된 기술자를 이용한 물체 검출과 분류 (Object Detection and Classification Using Extended Descriptors for Video Surveillance Applications)

  • 모하마드 카이룰 이슬람;파라 자한;민재홍;백중환
    • 대한전자공학회논문지SP
    • /
    • 제48권4호
    • /
    • pp.12-20
    • /
    • 2011
  • 본 논문은 비디오 감시 장치에 사용되는 효율적인 물체 검출 및 분류 알고리즘을 제안한다. 이전 연구는 주로 Scale Invariant Feature Transform (SIFT)나 Speeded Up Robust Feature (SURF)와 같은 특정 형태의 특징을 이용해 물체를 검출하거나 분류하였다. 본 논문에서는 물체 검출 및 분류에 상호 작용하는 알고리즘을 제안한다. 이는 로컬 패치들로부터 얻어지는 텍스쳐나 컬러 분포 같은 서로 다른 특성을 갖는 특징값을 이용해 물체의 검출 및 분류율을 높인다. 물체 검출에는 특징점들의 공간적인 클러스터링을, 이미지 표현이나 분류에는 Bag of Words 모델과 Naive Bayes 분류기를 사용한다. 실험을 통해 제안한 기법이 로컬 기술자를 사용한 물체 분류기법보다 우수한 성능을 나타냄을 보인다.

비디오 감시 응용을 위한 텍스쳐와 컬러 정보를 이용한 고속 물체 인식 (Fast Object Classification Using Texture and Color Information for Video Surveillance Applications)

  • 이슬람 모하마드 카이룰;자한 파라;민재홍;백중환
    • 한국항행학회논문지
    • /
    • 제15권1호
    • /
    • pp.140-146
    • /
    • 2011
  • 본 논문에서는 텍스쳐와 컬러 정보를 기반으로 비디오 감시를 위한 빠른 물체 분류 방법을 제안한다. 영상들로부터 SURF와 색 히스토그램의 국부적 패치들을 추출하여 그들의 장점을 이용한다. SURF는 명암 내용 정보를 제공하고 색 정보는 패치에 대한 특이성을 증강시킨다. SURF의 빠른 계산뿐만 아니라 객체의 색 정보를 활용한다. 국부적 특징을 이용하여 관심 영역 혹은 영상의 전역적 서술자를 생성하기 위해 Bag of Word 모델을 이용하고, 전역적 서술자를 분류하기 위해 Na$\ddot{i}$ve Bayes 모델을 이용한다. 또한 본 논문에서는 판별적인 기술자인 SIFT도 성능 분석한다. 네 종류의 객체에 대한 실험결과 95.75%의 인식률을 보였다.

Lightscape 에서의 재질에 따른 효과적인 표현방법 (Efficient application method for materials in Lightscape)

  • 박지애;장준호;최안섭
    • 한국조명전기설비학회:학술대회논문집
    • /
    • 한국조명전기설비학회 2006년도 춘계학술대회 논문집
    • /
    • pp.184-188
    • /
    • 2006
  • Lightscape is a visual rendering software enabling higher dimensional 3D image production using rendering as well. However, direct light simulation showed that more realistic feature of material-specific texture or color could be achieved by adjusting options. Accordingly, this study is to generate optimal values of options and achieve more realistic images by varying such values according to individual materials in order to create better quality simulation images using Lightscape.

  • PDF