• Title/Summary/Keyword: 사전세분화

Search Result 86, Processing Time 0.027 seconds

Fine Grained Classification of Named Entities Using Machine Learning and Dictionary (기계학습과 사전을 이용한 개체명 세분화)

  • 이기중;이도길;임해창;임수종
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.519-521
    • /
    • 2003
  • 개체명 인식은 효과적인 정보추출 시스템을 구축하기 위해 반드시 선행되어야 하는 작업이다. 지금까지의 개체명 인식에 관한 연구는 인명이나 조직, 장소와 같은 일반적인 개체명 인식 작업이 대부분이었다. 그러나, 효과적인 정보추출을 위해서는 이런 일반적인 개체명들을 더욱 세분화할 필요가 있다. 본 논문에서는 SVM기반 기계학습법과 기구축된 사전과의 편집거리 비교법을 이용하여 개체명을 세분화하는 방법을 제시한다. 실험은 개체명과 세분화된 범주가 부착된 공연 관련 문서 100개 중 80개는 학습집합, 20개는 실험집합으로 사용하였고 성능 평가 척도는 정확도(accuracy)를 이용해 개별적으로 평가하였다. 실험 결과 기계학습법과 사전을 이용한 방법을 결합한 모델이 가장 좋은 성능(정확도 72.91%)을 보였다.

  • PDF

Improving the Effectiveness of Customer Classification Models: A Pre-segmentation Approach (사전 세분화를 통한 고객 분류모형의 효과성 제고에 관한 연구)

  • Chang, Nam-Sik
    • Information Systems Review
    • /
    • v.7 no.2
    • /
    • pp.23-40
    • /
    • 2005
  • Discovering customers' behavioral patterns from large data set and providing them with corresponding services or products are critical components in managing a current business. However, the diversity of customer needs coupled with the limited resources suggests that companies should make more efforts on understanding and managing specific groups of customers, not the whole customers. The key issue of this paper is based on the fact that the behavioral patterns extracted from the specific groups of customers shall be different from those from the whole customers. This paper proposes the idea of pre-segmentation before developing customer classification models. We collected three customers' demographic and transactional data sets from a credit card, a tele-communication, and an insurance company in Korea, and then segmented customers by major variables. Different churn prediction models were developed from each segments and the whole data set, respectively, using the decision tree induction approach, and compared in terms of the hit ratio and the simplicity of generated rules.

A Study on Recognition of Korean Place Names System on the Internet by Using the Rules of Dictionary Use (한국어 지명 인식 처리를 위한 사전기반의 규칙 적용을 위한 세분화된 시스템 연구)

  • Jang, Hae-Suk;Jung, Kyu-Cheol;Lee, Jin-Kwan;Park, Ki-Hong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.301-304
    • /
    • 2005
  • 문서의 내용을 대표하는 용어를 추출하는데 있어서 반드시 선행되어야 할 작업이 개체명 인식이다. 개체명의 범주로는 인명, 지명, 단체명, 시간, 날짜등이 있다. 높은 신뢰도의 개체명 인식은 정보추출 시스템구축을 한 차원 높일 수 있을 것이다. 일반적인 개체명 인식이나 인명의 개체명 인식에 대한 연구는 활발하게 진행되어 왔다.. 그러나 세분화된 지명 인식의 연구는 다루어지지 않았다. 본 논문에서는 한국어 지명 인식 처리를 위한 사전기반의 세분화된 규칙 적용 시스템 연구방법을 제안하고자 한다.

  • PDF

A Study on Recognition of Korean Place Names System on the Internet by Using the Rules of Dictionary Use (규칙을 적용하여 세분화한 사전기반의 한국어 지명인식 시스템 연구)

  • Jang, Hae-Suk;Jung, Kyu-Cheol;Lee, Jin-Kwan;Park, Ki-Hong
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • v.9 no.2
    • /
    • pp.1097-1100
    • /
    • 2005
  • A choice of a term represent the contents of the documents should be preceded in recognition of the name of an individual. The recognition of the name of an individual which has high reliability can raise the building of information extract system into higher level. Up to now active research on the recognition of the name of an individual human name and the general recognition of the name of an individual have been studied, detailed research on the recognition of the name of a place hasn't be done, however. This thesis suggests detailed methods of recognition of Korean place names system with applying a rule made manully.

  • PDF

The Study of Josa Dictionary Construction for Korean-English Machine Translation (한영 기계 번역을 위한 조사 사전 구성에 관한 연구)

  • Choi, Jae-Hyuk;Kim, Kweon-Yang;Park, Sang-Gyu;Lee, Sang-Jo
    • Annual Conference on Human and Language Technology
    • /
    • 1989.10a
    • /
    • pp.219-224
    • /
    • 1989
  • 본 연구는 한영 기계 번역을 위한 사전 중에서 한국어 조사 사전에 대한 모델을 제시하였다. 특히 정확한 역어 선택을 위한 제약정보를 수집하는데 중점을 두었다. 지금까지의 한국어 조사에 대한 역어 선택 방법은 체언의 속성 정보에 의한 역어 선택과 default 역어의 선택이었다. 그러나 한국어의 한 조사에 대응하는 영어의 전치사의 수가 너무 많음으로 인하여 이러한 기존의 방법을 사용할 경우 고질의 변역은 기대할 수 없다. 따라서 본 논문에서는 정확한 역어의 선택을 위하여 조사의 격 분류와 체언의 속성 정보를 더욱 세분화 시키고, 이를 이용한 용언의 기본 구문 패턴을 재정립하였다. 또한 한 두개의 default 역어로 인한 번역의 부 정확성을 탈피하기 위하여 default 역어 및 체언의 속성 정보에 의한 역어를 용언의 의미적 분류에 의해 더욱 세분화시킴으로써 정확한 역어를 선택하는 방법을 제시하였다.

  • PDF

Similar Verb Words Extraction based on their Case Frame Structure (격틀 구조에 기반한 유사 동사 추출)

  • Cho, Junghyun;Jung, Hyunki;Kim, Yu-Seop
    • Annual Conference on Human and Language Technology
    • /
    • 2009.10a
    • /
    • pp.219-224
    • /
    • 2009
  • 한국어 Propbank를 구축하기 위해서는 유사 동사를 군집화하고 군집에 포함되는 동사들의 구문 및 의미 특성을 모아놓은 정보가 필요하다. 본 연구에서는 이러한 군집화의 초기 단계로써 개별 동사들의 격틀 구조에 기반하여 동사간의 유사도를 추정하여 유사 동사를 추출하고자 하였다. 본 연구는 개별 동사의 격틀 정보를 추출하기 위하여 세종 계획의 용언 사전과 KAIST 언어자원의 동사 격틀 사전을 활용하였다. 또한 격틀을 세분화하여 보다 상세한 격틀 정보를 생성하기 위하여 격틀이 가지고 있는 논항의 특성을 활용하였다. 동사의 유사도를 측정하기 위하여 개별 동사들은 벡터로 표현하였고, 벡터의 원소는 해당 동사가 다른 동사와 세분화된 격틀을 공유하는 정도로 하였다. 실험에서는 두 용언 사전에서 개별적으로 위의 과정을 진행하여 각 동사와 유사한 동사들을 추출하였다.

  • PDF

A study of Bayesian inference on auto insurance credibility application (자동차보험 신뢰도 적용에 대한 베이지안 추론 방식 연구)

  • Kim, Myung Joon;Kim, Yeong-Hwa
    • Journal of the Korean Data and Information Science Society
    • /
    • v.24 no.4
    • /
    • pp.689-699
    • /
    • 2013
  • This paper studies the partial credibility application method by assuming the empirical prior or noninformative prior informations in auto insurnace business where intensive rating segmentation is expanded because of premium competition. Expanding of rating factor segmetation brings the increase of pricing cells, as a result, the number of cells for partial credibility application will increase correspondingly. This study is trying to suggest more accurate estimation method by considering the Bayesian framework. By using empirically well-known or noninformative information, inducing the proper posterior distribution and applying the Bayes estimate which is minimizing the error loss into the credibility method, we will show the advantage of Bayesian inference by comparison with current approaches. The comparison is implemented with square root rule which is a widely accepted method in insurance business. The convergence level towarding to the true risk will be compared among various approaches. This study introduces the alternative way of redcuing the error to the auto insurance business fields in need of various methods because of more segmentations.

A Study on the Optimization of Semantic Relation of Author Keywords in Humanities, Social Sciences, and Art and Sport of the Korea Citation Index (KCI) (한국학술지인용색인(KCI)의 인문학, 사회과학, 예술체육 분야 저자키워드의 의미적 관계 유형 최적화 연구)

  • Ko, Young Man;Song, Min-Sun;Lee, Seung-Jun
    • Journal of the Korean Society for Library and Information Science
    • /
    • v.49 no.1
    • /
    • pp.45-67
    • /
    • 2015
  • The purpose of this study is to analyse the semantic relations of terms in STNet, a structured terminology dictionary based on author keywords of humanities, social sciences, and art and sport in the Korea Citation Index (KCI) and to describe the procedure for optimizing the relation types and specifying the name of relationships. The results indicate that four logical criteria, such as creating new names for relationships or limitation of typing the relationship by the appearance frequency of same type, consideration of direction of relationship, reflection to accept the existing name of relationships, are required for the optimization of the typing and naming the relationships. We applied these criteria to the relationships in the class "real person" of STNet and the result shows that 1,135 out of 1,743 uncertain relationships such as RT, RT_X or RT_Y are specified and clarified. This rate of optimization with ca. 65% represents the usefulness of the criteria applicable to the cases of database construction and retrieval.

Sentiment lexicon modeling for consumer analysis (소비자 분석을 위한 감성사전 모델링)

  • Lee, Jae-Woong;Yun, Hyun-Noh;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.850-853
    • /
    • 2017
  • 본 논문은, 크롤링을 통해 얻은 비정형 데이터를 'Python'의 'KoNLPy' 라이브러리를 사용해 형태소 분석한 후 텍스트 마이닝을 통한 감성사전 구축을 목표로 하고 있으며, 형태소들의 빈도수를 기반으로 가중치로 두어 선별된 단어들을 이용해 긍정과 부정으로 나누어 카테고리화 한다. 이후, 선별한 카테고리에 단어의 극성을 판단하여 감성사전을 모델링한다. 실험을 위하여, 온라인 쇼핑몰 리뷰를 크롤링하여 비정형 데이터를 수집하고, 수집한 데이터를 분석, 가공 과정을 거쳐 정형화된 단어를 추출한다. 그 후에, 리뷰에 자주 사용되는 단어를 바탕으로 카테고리를 구성하였다. 구성된 카테고리 별로 단어의 극성을 판단하여 소비자 성향을 분석한 결과, 단순히 긍정과 부정을 표현하는 범용 감성사전보다 더 세분화된 감성 사전을 구축 할 수 있었다.