• 제목/요약/키워드: Histogram-based Classification

검색결과 96건 처리시간 0.023초

비디오 감시 응용을 위한 텍스쳐와 컬러 정보를 이용한 고속 물체 인식 (Fast Object Classification Using Texture and Color Information for Video Surveillance Applications)

  • 이슬람 모하마드 카이룰;자한 파라;민재홍;백중환
    • 한국항행학회논문지
    • /
    • 제15권1호
    • /
    • pp.140-146
    • /
    • 2011
  • 본 논문에서는 텍스쳐와 컬러 정보를 기반으로 비디오 감시를 위한 빠른 물체 분류 방법을 제안한다. 영상들로부터 SURF와 색 히스토그램의 국부적 패치들을 추출하여 그들의 장점을 이용한다. SURF는 명암 내용 정보를 제공하고 색 정보는 패치에 대한 특이성을 증강시킨다. SURF의 빠른 계산뿐만 아니라 객체의 색 정보를 활용한다. 국부적 특징을 이용하여 관심 영역 혹은 영상의 전역적 서술자를 생성하기 위해 Bag of Word 모델을 이용하고, 전역적 서술자를 분류하기 위해 Na$\ddot{i}$ve Bayes 모델을 이용한다. 또한 본 논문에서는 판별적인 기술자인 SIFT도 성능 분석한다. 네 종류의 객체에 대한 실험결과 95.75%의 인식률을 보였다.

위성영상의 감독분류를 위한 훈련집합의 특징 선택에 관한 연구 (Feature Selection of Training set for Supervised Classification of Satellite Imagery)

  • 곽장호;이황재;이준환
    • 대한원격탐사학회지
    • /
    • 제15권1호
    • /
    • pp.39-50
    • /
    • 1999
  • 위성에서 관측된 다 대역 위성영상 데이터를 이용목적에 따라 분류하기 위해서는 복잡한 처리과정과 많은 시간을 필요로 하며, 감독분류시 훈련 데이터의 선택과 고려되는 다양한 특징 값들은 분류 정확도를 좌우할 만큼 민감한 특성을 나타내고 있다. 따라서 본 논문에서는 훈련데이터의 선택과 다양한 특징 값들 중 실제 영상분류에 기여도가 높은 특징을 추출하기 위하여 퍼지 기반의 $\gamma$모델을 이용한 분류네트웍을 구성하였다. 훈련집합 선택시 분류하고자 하는 지역의 밝기 분포도, 텍스쳐 특징 그리고 NDVI(Normalized Difference Vegetation Index)를 분류에 사용될 특징으로 선택하였고, 분류네트웍 출력 값의 오류가 최소화 되도록 Gradient Desoent 방법을 이용하여 각 노드의 $\gamma$파라미터를 훈련시키는 과정을 채택하였다. 이러한 훈련을 통하여 얻어진 파라미터를 이용하면 각 노드의 연결특성을 알 수 있으며, 다양한 입력 노드의 특징들 중 영상분류에 기여도가 적은 특징들을 추출하여 제거할 수 있다.

웃음 치료 훈련을 위한 웃음 표정 인식 시스템 개발 (Development of a Recognition System of Smile Facial Expression for Smile Treatment Training)

  • 이옥걸;강선경;김영운;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권4호
    • /
    • pp.47-55
    • /
    • 2010
  • 본 논문은 실시간 카메라 영상으로부터 얼굴을 검출하고 얼굴 표정을 인식하여 웃음 치료훈련을 할 수 있는 시스템을 제안한다. 제안된 시스템은 카메라 영상으로부터 Haar-like 특징을 이용하여 얼굴 후보 영역을 검출한 다음, SVM분류기를 이용하여 얼굴 후보 영역이 얼굴 영상인지 아닌지를 검증한다. 그 다음에는 검출된 얼굴 영상에 대해, 조명의 영향을 최소화하기 위한 방법으로 히스토그램 매칭을 이용한 조명 정규화를 수행한다. 표정 인식 단계에서는 PCA를 사용하여 얼굴 특징 벡터를 획득한 후 다층퍼셉트론 인공신경망을 이용해 실시간으로 웃음표정을 인식하였다. 본 논문에서 개발된 시스템은 실시간으로 사용자의 웃음 표정을 인식하여 웃음 양을 화면에 표시해 줌으로써 사용자 스스로 웃음 훈련을 할 수 있게 해 준다. 실험 결과에 따르면, 본 논문에서 제안한 방법은 SVM 분류기를 통한 얼굴 후보 영역 검증과 히스토그램 매칭을 이용한 조명정규화를 이용하여 웃음 표정 인식률을 향상시켰다.

스케치 질의를 통한 웹기반 영상 검색과 분류 시스템 (Web-based Image Retrieval and Classification System using Sketch Query)

  • 이상봉;고병철;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권7_8호
    • /
    • pp.703-712
    • /
    • 2003
  • 디지털 기술의 발달과 인터넷의 대중화에 더불어 영상데이타의 생산과 교환이 더 자유로워짐에 따라 디지털 도서관, 영상처리, 데이타베이스 시스템과 같은 연구분야에서 내용기반 영상검색에 대한 관심이 높아지고 있다. 일반적으로 ´영상에 의한 질의´의 경우 사용자가 마음에 드는 영상이 없더라도 반듯이 진의 영상을 데이타베이스로부터 선택해야 하지만, ´스케치에 의한 질의´는 사용자의 생각에 따라 영상온 그림으로 표현할 수 있으므로 최근에 가장 많이 사용되는 질의 방법 중 하나이다. 본 논문에서는 스케치 진의와 영상 분류 방법을 이용하는 사바 기반의 영상검색 시스템을 제안한다. 본 시스템에서는 유사영상을 검색하기 위해 영상으로부터 색상 히스토그램과 Haar-웨이블릿 계수를 사용하고, leave-one-out 방법을 이용하여 영상을 분류하도록 하였다. 본 논문에서는 사진-그림, 자연 도시 등의 영상 분류론 통해 영상의 의미정보를 추출할 수 있을 뿐 아니라, 사용자 질의 영상을 분류하여, 질의 영상이 갖고 있는 의미공간으로 검색 공간을 축소하여 검색 시간을 단축시키는 효율성을 얻을 수 있었다.

Optical Character Recognition for Hindi Language Using a Neural-network Approach

  • Yadav, Divakar;Sanchez-Cuadrado, Sonia;Morato, Jorge
    • Journal of Information Processing Systems
    • /
    • 제9권1호
    • /
    • pp.117-140
    • /
    • 2013
  • Hindi is the most widely spoken language in India, with more than 300 million speakers. As there is no separation between the characters of texts written in Hindi as there is in English, the Optical Character Recognition (OCR) systems developed for the Hindi language carry a very poor recognition rate. In this paper we propose an OCR for printed Hindi text in Devanagari script, using Artificial Neural Network (ANN), which improves its efficiency. One of the major reasons for the poor recognition rate is error in character segmentation. The presence of touching characters in the scanned documents further complicates the segmentation process, creating a major problem when designing an effective character segmentation technique. Preprocessing, character segmentation, feature extraction, and finally, classification and recognition are the major steps which are followed by a general OCR. The preprocessing tasks considered in the paper are conversion of gray scaled images to binary images, image rectification, and segmentation of the document's textual contents into paragraphs, lines, words, and then at the level of basic symbols. The basic symbols, obtained as the fundamental unit from the segmentation process, are recognized by the neural classifier. In this work, three feature extraction techniques-: histogram of projection based on mean distance, histogram of projection based on pixel value, and vertical zero crossing, have been used to improve the rate of recognition. These feature extraction techniques are powerful enough to extract features of even distorted characters/symbols. For development of the neural classifier, a back-propagation neural network with two hidden layers is used. The classifier is trained and tested for printed Hindi texts. A performance of approximately 90% correct recognition rate is achieved.

실시간 응용을 위한 안드로이드 플랫폼에서의 안면 검출 시스템 구현 (Implementation of Face Detection System on Android Platform for Real-Time Applications)

  • 한병길;임길택
    • 대한임베디드공학회논문지
    • /
    • 제8권3호
    • /
    • pp.137-143
    • /
    • 2013
  • This paper describes an implementation of face detection technology for a real-time application on the Android platform. Java class of Face-Detection for detection of human face is provided by the Android API. However, this function is not suitable to apply for the real-time applications due to inadequate detection speed and accuracy. In this paper, the AdaBoost based classification method which utilizes Local Binary Pattern (LBP) histogram is employed for face detection. The face detection module has been developed by C/C++ language for high-speed image processing, and this module is included to the Android platform using the Java Native Interface (JNI). The experiments were carried out in the Java-based environment and JNI-based environment. The experimental results have shown that the performance of JNI-based is faster than Java-based method and our system is well enough to apply for real-time applications.

Projected Local Binary Pattern based Two-Wheelers Detection using Adaboost Algorithm

  • Lee, Yeunghak;Kim, Taesun;Shim, Jaechang
    • Journal of Multimedia Information System
    • /
    • 제1권2호
    • /
    • pp.119-126
    • /
    • 2014
  • We propose a bicycle detection system riding on people based on modified projected local binary pattern(PLBP) for vision based intelligent vehicles. Projection method has robustness for rotation invariant and reducing dimensionality for original image. The features of Local binary pattern(LBP) are fast to compute and simple to implement for object recognition and texture classification area. Moreover, We use uniform pattern to remove the noise. This paper suggests that modified LBP method and projection vector having different weighting values according to the local shape and area in the image. Also our system maintains the simplicity of evaluation of traditional formulation while being more discriminative. Our experimental results show that a bicycle and motorcycle riding on people detection system based on proposed PLBP features achieve higher detection accuracy rate than traditional features.

  • PDF

Enhanced CT-image for Covid-19 classification using ResNet 50

  • Lobna M. Abouelmagd;Manal soubhy Ali Elbelkasy
    • International Journal of Computer Science & Network Security
    • /
    • 제24권1호
    • /
    • pp.119-126
    • /
    • 2024
  • Disease caused by the coronavirus (COVID-19) is sweeping the globe. There are numerous methods for identifying this disease using a chest imaging. Computerized Tomography (CT) chest scans are used in this study to detect COVID-19 disease using a pretrain Convolutional Neural Network (CNN) ResNet50. This model is based on image dataset taken from two hospitals and used to identify Covid-19 illnesses. The pre-train CNN (ResNet50) architecture was used for feature extraction, and then fully connected layers were used for classification, yielding 97%, 96%, 96%, 96% for accuracy, precision, recall, and F1-score, respectively. When combining the feature extraction techniques with the Back Propagation Neural Network (BPNN), it produced accuracy, precision, recall, and F1-scores of 92.5%, 83%, 92%, and 87.3%. In our suggested approach, we use a preprocessing phase to improve accuracy. The image was enhanced using the Contrast Limited Adaptive Histogram Equalization (CLAHE) algorithm, which was followed by cropping the image before feature extraction with ResNet50. Finally, a fully connected layer was added for classification, with results of 99.1%, 98.7%, 99%, 98.8% in terms of accuracy, precision, recall, and F1-score.

Extreme Learning Machine Ensemble Using Bagging for Facial Expression Recognition

  • Ghimire, Deepak;Lee, Joonwhoan
    • Journal of Information Processing Systems
    • /
    • 제10권3호
    • /
    • pp.443-458
    • /
    • 2014
  • An extreme learning machine (ELM) is a recently proposed learning algorithm for a single-layer feed forward neural network. In this paper we studied the ensemble of ELM by using a bagging algorithm for facial expression recognition (FER). Facial expression analysis is widely used in the behavior interpretation of emotions, for cognitive science, and social interactions. This paper presents a method for FER based on the histogram of orientation gradient (HOG) features using an ELM ensemble. First, the HOG features were extracted from the face image by dividing it into a number of small cells. A bagging algorithm was then used to construct many different bags of training data and each of them was trained by using separate ELMs. To recognize the expression of the input face image, HOG features were fed to each trained ELM and the results were combined by using a majority voting scheme. The ELM ensemble using bagging improves the generalized capability of the network significantly. The two available datasets (JAFFE and CK+) of facial expressions were used to evaluate the performance of the proposed classification system. Even the performance of individual ELM was smaller and the ELM ensemble using a bagging algorithm improved the recognition performance significantly.

HoG 기술자를 이용한 중이염 자동 판별 방법 (Middle Ear Disease Automatic Decision Scheme using HoG Descriptor)

  • 정나라;송재욱;최호형;강현수
    • 한국정보통신학회논문지
    • /
    • 제20권3호
    • /
    • pp.621-629
    • /
    • 2016
  • 본 논문은 소아 및 성인의 중이염을 자동 판별할 수 있는 알고리즘을 제안한다. 제안 방법은 중이염 영상과 정상 영상 데이터베이스에서 HoG(histogram of oriented gradient) 기술자를 사용하여 특징을 추출한 다음 SVM(support vector machine) 분류기를 통하여 추출된 특징들을 학습시킨다. 여기서 SVM 입력 벡터의 추출을 위하여 입력영상은 영상크기를 사전에 정의된 일정크기의 영상으로 변환되고 변환된 영상을 16개의 블록과 4개의 셀로 분할하며 9개의 빈을 가진 HoG를 사용한다. 결과적으로 입력 영상에서 576개의 특징을 추출하고 이를 SVM의 학습과 분류에 사용된다. 입력 영상이 학습된 특징들의 모델을 기반으로 SVM 분류기를 통하여 중이염 여부가 판별된다. 실험 결과 제안한 방법은 정확도 90% 이상의 판별 성능을 나타내었다.