• Title/Summary/Keyword: 패턴분류

Search Result 2,056, Processing Time 0.031 seconds

Comparison of Feature Selection Methods using the Statistics of Words in Text Categorization (문서 분류에서 단어의 통계 정보를 이용한 특징 선택 기법의 비교)

  • 임윤택;윤충화
    • Proceedings of the Safety Management and Science Conference
    • /
    • 1999.11a
    • /
    • pp.209-216
    • /
    • 1999
  • 정보 검색 분야의 문서 분류에 기계 학습 기법을 적용할 때 발생하는 가장 큰 문제는 문서를 패턴으로 표현할 때, 하나의 패턴이 가지는 특징의 수가 기계 학습 기법에서 처리할 수 있는 범위를 넘어서는 것이다. 이러한 문제를 해결하기 위하여 특징 선택 기법은 패턴을 구성하고 있는 특징 중에서 실제 문서 분류에 많은 영향을 주는 특징만을 선택하여, 기계 학습 기법에서 쉽게 처리할 수 있을 정도의 패턴을 구성하게 한다. 본 논문에서는 이러한 특징 선택 기법 중에서 IG(Information Gain), Gini index, Relief-F, DF(Document Frequency)를 비교하였다. 실험 결과 문서들에 포함된 모든 고유 단어를 특징의 길이로 하여 패턴을 구성했을 때보다 특징 선택 기법을 적용하여 고유 단어 중 일부를 특징으로 패턴을 구성할 때 기계학습에서 더 향상된 분류 성능을 보였다

  • PDF

Sentiment Classification considering Korean Features (한국어 특성을 고려한 감성 분류)

  • Kim, Jung-Ho;Kim, Myung-Kyu;Cha, Myung-Hoon;In, Joo-Ho;Chae, Soo-Hoan
    • Science of Emotion and Sensibility
    • /
    • v.13 no.3
    • /
    • pp.449-458
    • /
    • 2010
  • As occasion demands to obtain efficient information from many documents and reviews on the Internet in many kinds of fields, automatic classification of opinion or thought is required. These automatic classification is called sentiment classification, which can be divided into three steps, such as subjective expression classification to extract subjective sentences from documents, sentiment classification to classify whether the polarity of documents is positive or negative, and strength classification to classify whether the documents have weak polarity or strong polarity. The latest studies in Opinion Mining have used N-gram words, lexical phrase pattern, and syntactic phrase pattern, etc. They have not used single word as feature for classification. Especially, patterns have been used frequently as feature because they are more flexible than N-gram words and are also more deterministic than single word. Theses studies are mainly concerned with English, other studies using patterns for Korean are still at an early stage. Although Korean has a slight difference in the meaning between predicates by the change of endings, which is 'Eomi' in Korean, of declinable words, the earlier studies about Korean opinion classification removed endings from predicates only to extract stems. Finally, this study introduces the earlier studies and methods using pattern for English, uses extracted sentimental patterns from Korean documents, and classifies polarities of these documents. In this paper, it also analyses the influence of the change of endings on performances of opinion classification.

  • PDF

An Incremental Multi Partition Averaging Algorithm Based on Memory Based Reasoning (메모리 기반 추론 기법에 기반한 점진적 다분할평균 알고리즘)

  • Yih, Hyeong-Il
    • Journal of IKEEE
    • /
    • v.12 no.1
    • /
    • pp.65-74
    • /
    • 2008
  • One of the popular methods used for pattern classification is the MBR (Memory-Based Reasoning) algorithm. Since it simply computes distances between a test pattern and training patterns or hyperplanes stored in memory, and then assigns the class of the nearest training pattern, it is notorious for memory usage and can't learn additional information from new data. In order to overcome this problem, we propose an incremental learning algorithm (iMPA). iMPA divides the entire pattern space into fixed number partitions, and generates representatives from each partition. Also, due to the fact that it can not learn additional information from new data, we present iMPA which can learn additional information from new data and not require access to the original data, used to train. Proposed methods have been successfully shown to exhibit comparable performance to k-NN with a lot less number of patterns and better result than EACH system which implements the NGE theory using benchmark data sets from UCI Machine Learning Repository.

  • PDF

A Case Study for Rock Mass Classification and Statistical Analysis in Roadway Tunnel (도로터널에서의 암반분류 및 통계분석 사례)

  • 김영근;유동욱
    • Proceedings of the Korean Geotechical Society Conference
    • /
    • 2003.06b
    • /
    • pp.197-226
    • /
    • 2003
  • 터널에서의 암반분류/평가는 지보패턴결정 뿐만 아니라 터널주변암반에 대한 설계정 수 산정 및 물성평가에 있어 매우 중요한 요소라 할 수 있다. 암반분류는 각 국 또는 주요기관 별로 분류안이 만들어져 있으며, 현재 RMR분류와 Q-system이 가장 활발히 적용되고 있다. 본고에서는 터널설계단계에서 암반분류방법과 지보패턴결정과정을 고찰하였으며, 도로설계를 중심으로 적용현황을 분석하였다 또한 실제 터널시공시 암반분류 및 판정에 의한 지보공 변경사례를 살펴봄으로서 시공 중 암반분류/평가의 의미를 고찰하였다. 그리고 암반분류요소들에 대한 통계분석을 실시하여 암반분류요소들간의 상관관계를 분석하였다.

  • PDF

Design of Purchasing Pattern Classification System Using Nural Network and Multiple-Level Association Rules (신경망과 다단계 연관규칙을 이용한 구매 패턴 분류 시스템의 설계)

  • Lee, Jong-Min;Jung, Hong
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2000.05a
    • /
    • pp.203-206
    • /
    • 2000
  • 신경망을 이용해 고객집단을 분류하고 고객의 특성에 따라 세분화된 고객들에 대해 다단계 연관규칙을 적용해서 고객의 상품 구매패턴을 찾아 줌으로써 마케팅 전략 결정을 지원하는 구매패턴분류 시스템을 설계한다. 고객분류를 위한 신경망 시스템은 다층 퍼셉트론에 역전파 알고리즘을 이용한다. 주소, 구매금액, 구매횟수, 고객 구분, 상긴 등과 같은 고객정보를 입력층에 입력변수로 지정하고, 이에 따른 우량/일반고객을 출력변수로 지정한 후 신경망을 학습시키면, 실제의 우량/일반의 간과 예측되는 우량/일반의 값의 차이론 최소화시키면서 모형을 형성시켜 나가게 된다. 구매패턴 분류 시스템은 다단계 연관규칙을 이용한다. 고객분류 서브시스템을 통해 고객집단이 세분화되면 각각의 고객집단에 대해 TID와 품목 트랜잭션을 입력으로 cumulate 알고리즘과 개념계층을 이용해 일반화 과정을 수행하면서 빈발 항목을 찾게 되고 이론 근거로 항목간의 연관규칙을 찾아내게 된다.

  • PDF

Pattern Classification of Hard Disk Defect Distribution Using Gaussian Mixture Model (가우시안 혼합 모델을 이용한 하드 디스크 결함 분포의 패턴 분류)

  • Jun, Jae-Young;Kim, Jeong-Heon;Moon, Un-Chul;Choi, Kwang-Nam
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.482-486
    • /
    • 2008
  • 본 논문에서는 하드 디스크 드라이브(Hard Disk Drive, HDD) 생산 공정 과정에서 발생할 수 있는 불량 HDD의 결함 분포에 대해서 패턴을 자동으로 분류해주는 기법을 제시한다. 이를 위해서 표준 패턴 클래스로 분류되어 있는 불량 HDD의 각 클래스의 확률 모델을 GMM(Gaussian Mixture Model)로 가정한다. 실험은 전문가에 의해 분류된 실제 HDD 결함 분포로부터 5가지의 특징 값들을 추출한 후, 결함 분포의 클래스를 표현할 수 있는 GMM의 파라미터(Parameter)를 학습한다. 각 모델의 파라미터를 추정하기 위해 EM(Expectation Maximization) 알고리즘을 사용한다. 학습된 GMM의 분류 테스트는 학습에 사용되지 않은 HDD 결함 분포에서 5가지의 특징 값을 입력 값으로 추정된 모델들의 파라미터 값에 의해 사후 확률을 구한다. 계산된 확률 값 중 가장 큰 값을 갖는 모델의 클래스를 표준 패턴 클래스로 분류한다. 그 결과 제시된 GMM을 이용한 HDD의 패턴 분류의 결과 96.1%의 정답률을 보여준다.

  • PDF

A Modified Fuzzy Min-Max Neural Network for Pattern Classification (수정된 퍼지 최대최소 신경망을 이용한 패턴분류)

  • 최형수;정경훈;김호준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.565-567
    • /
    • 2004
  • 본 연구에서는 효과적인 패턴 분류를 위한 방법론으로서 수정된 퍼지 최대최소 신경망 모델을 제안하고 그 유용성을 고찰한다 제안된 모델에서 각 하이퍼박스는 다차원의 특징공간상에서 한 영역으로 정의되며 각 특징에 대하여 가중치 개념이 추가된 소속함수를 갖는다. 이는 기존의 FMM 신경망에서 모든 특징에 대하여 균일하게 고려되었던 특징의 상대적 중요도를 서로 다른 값으로 반영할 수 있게 한다. 본 연구에서는 제안된 모델의 동작특성 및 학습방법을 소개하며, 실제 패턴 분류문제에 적용한 실험결과를 통하여 제안된 이론의 타당성을 평가한다.

  • PDF

A Robust Pattern-based Feature Extraction Method for Sentiment Categorization of Korean Customer Reviews (강건한 한국어 상품평의 감정 분류를 위한 패턴 기반 자질 추출 방법)

  • Shin, Jun-Soo;Kim, Hark-Soo
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.12
    • /
    • pp.946-950
    • /
    • 2010
  • Many sentiment categorization systems based on machine learning methods use morphological analyzers in order to extract linguistic features from sentences. However, the morphological analyzers do not generally perform well in a customer review domain because online customer reviews include many spacing errors and spelling errors. These low performances of the underlying systems lead to performance decreases of the sentiment categorization systems. To resolve this problem, we propose a feature extraction method based on simple longest matching of Eojeol (a Korean spacing unit) and phoneme patterns. The two kinds of patterns are automatically constructed from a large amount of POS (part-of-speech) tagged corpus. Eojeol patterns consist of Eojeols including content words such as nouns and verbs. Phoneme patterns consist of leading consonant and vowel pairs of predicate words such as verbs and adjectives because spelling errors seldom occur in leading consonants and vowels. To evaluate the proposed method, we implemented a sentiment categorization system using a SVM (Support Vector Machine) as a machine learner. In the experiment with Korean customer reviews, the sentiment categorization system using the proposed method outperformed that using a morphological analyzer as a feature extractor.

Import Vector Voting Model for Multi-pattern Classification (다중 패턴 분류를 위한 Import Vector Voting 모델)

  • Choi, Jun-Hyeog;Kim, Dae-Su;Rim, Kee-Wook
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.13 no.6
    • /
    • pp.655-660
    • /
    • 2003
  • In general, Support Vector Machine has a good performance in binary classification, but it has the limitation on multi-pattern classification. So, we proposed an Import Vector Voting model for two or more labels classification. This model applied kernel bagging strategy to Import Vector Machine by Zhu. The proposed model used a voting strategy which averaged optimal kernel function from many kernel functions. In experiments, not only binary but multi-pattern classification problems, our proposed Import Vector Voting model showed good performance for given machine learning data.

Input Pattern Vector Extraction and Pattern Recognition of Taste using fMRI (fMRI를 이용한 맛의 입력패턴벡터 추출 및 패턴인식)

  • Lee, Sun-Yeob;Lee, Yong-Gu;Kim, Dong-Ki
    • Journal of radiological science and technology
    • /
    • v.30 no.4
    • /
    • pp.419-426
    • /
    • 2007
  • In this paper, the input pattern vectors are extracted and the learning algorithms is designed to recognize taste(bitter, sweet, sour and salty) pattern vectors. The signal intensity of taste are used to compose the input pattern vectors. The SOM(Self Organizing Maps) algorithm for taste pattern recognition is used to learn initial reference vectors and the ot-star learning algorithm is used to determine the class of the output neurons of the sunclass layer. The weights of the proposed algorithm which is between the input layer and the subclass layer can be learned to determine initial reference vectors by using SOM algorithm and to learn reference vectors by using LVQ(Learning Vector Quantization) algorithm. The pattern vectors are classified into subclasses by neurons in the subclass layer, and the weights between subclass layer and output layer are learned to classify the classified subclass, which is enclosed a class. To classify the pattern vectors, the proposed algorithm is simulated with ones of the conventional LVQ, and it is confirmed that the proposed learning method is more successful classification than the conventional LVQ.

  • PDF