• Title/Summary/Keyword: 명사구

Search Result 150, Processing Time 0.029 seconds

Compound Noun Indexing Experiments in Korean Information Retrieval (한국어 정보검색에서 복합명사 색인 실험)

  • Kang, Byung-Ju;Choi, Key-Sun;Yoon, Jun-Tae
    • Annual Conference on Human and Language Technology
    • /
    • 1998.10c
    • /
    • pp.130-136
    • /
    • 1998
  • 한국어 정보검색에서 복합명사의 불규칙한 표기 형태로 인하여 발생하는 색인과 질의의 불일치 문제는 단순명사 단위로 색인하고 질의함으로써 해결할 수 있지만 원래의 복합명사가 가지고 있던 정보를 상실함으로써 정확도의 하락이 예상된다. 따라서 보다 정교한 문서검색을 위해서는 복합명사를 색인으로 사용하는 것이 필요하다. 본 논문에서는 단순한 패턴을 이용한 복합명사 색인 방법으로부터 정교한 명사구 구문분석을 통한 복합명사 색인 방법까지 그 동안 연구되었던 대표적인 복합명사 색인 방법을 실험을 통하여 비교 평가하여 복합명사 색인의 검색성능에 대한 효과성을 검증한다.

  • PDF

A study on the ambiguous adnominal constructions in product documentation (제품 설명서에 나타나는 중의적 명사 수식 구문 연구 - 통제 언어의 관점에서-)

  • Park, Arum;Ji, Eun-Byul;Hong, Munpyo
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.23-28
    • /
    • 2012
  • 번역을 지원하는 도구로 자동 번역 시스템을 효율적으로 활용하기 위해 중요한 것은 자동 번역에 적합하도록 원문을 작성하거나 이미 작성된 원문에 대한 전처리 작업을 하는 것이다. 본 연구의 궁극적인 목표는 제품 설명서 작성자가 통제언어 체커를 통해 통제언어 규칙들을 적용하여 원문을 작성하도록 하는 것이다. 본 논문은 그 중간 단계로써 제품 설명서에 나타나는 문제 사항이 번역 품질에 어떠한 영향을 미치는지 밝혀내는 것을 목적으로 한다. 연구 대상은 제품 설명서에서 자동 번역의 성능을 저해시키는 요소 중 중의적 명사 수식 구문이다. 이러한 명사 수식 구문들은 분석 단계에서 구조적인 모호성을 초래하여 한국어 분석의 정확도를 떨어뜨리기 때문에 결과적으로 번역 품질을 악화시킬 수 있다. 이를 검증하기 위해 우선 제품 설명서 데이터를 분석하여 자동 번역 결과에 부정적인 영향을 미치는 명사 수식 구문을 다음과 같이 4가지로 유형화 하였다. (유형 1) 관형격 명사구 + 명사 병렬 접속, (유형 2) 동사의 관형형이 수식하는 명사구 + 명사 병렬 접속, (유형 3) 관형격 조사 '의' 중복, (유형 4) 병렬 접속어를 잘못 쓴 경우, 각각의 유형에 대해서 한국어 분석 단계에서 발생할 수 있는 문제에 대해 설명하였으며, 문제 사항에 대해 통제언어 규칙을 제시하였다. 통제언어 규칙에 따라 중의적 명사 수식 구문을 수정한 결과, 한국어 원문의 번역결과보다 한국어 수정문의 번역결과가 작성자의 의도를 더 잘 나타낸다는 것을 확인할 수 있었다.

  • PDF

Korean Composed Noun Phrase Chunking Using CRF (CRF를 이용한 한국어 문장의 복합명사 상당어구 묶음)

  • Park, Byul;Seon, Choong-Nyoung;Seo, Jung-Yun
    • Annual Conference on Human and Language Technology
    • /
    • 2011.10a
    • /
    • pp.90-93
    • /
    • 2011
  • 구분분석은 문장을 분석하여 문장의 구문 구조를 밝히는 작업으로, 문장이 길어질수록 문장의 중의성이 높아져 구문분석 복잡도를 증사시키고 성능이 떨어진다. 구문분석의 복잡도를 감소시키기 위한 방법 중 하나로 구묶음을 하는데 본 논문에서는 하나의 명사처럼 쓰일 수 있는 둘 이상의 연속된 명사, 대명사, 수사, 숫자와 이를 수식하는 관형사, 접두사 및 접미사를 묶어서 복합명사 상당어구라고 정의하고 복합명사 상당어구 인식 시스템을 제안한다. 본 논문은 복합명사 상당어구 인식을 기계학습을 이용한 태그 부착 문제로 간주하였다. 문장 내 띄어쓰기, 어절의 어휘 정보, 어절 내 형태소들의 품사 정보와 품사-어휘 정보를 함께 자질로 사용하였다. 실험을 위하여 세종 구문분석 말뭉치 7만여 문장을 학습과 평가에 사용했으며, 실험결과는 95.97%의 정확률과 95.11%의 재현율, 95.54%의 $F_1$-평가치를 보였고, 구문분석의 전처리로써 사용하였을 때 구문분석의 성능과 속도가 향상됨을 보였다.

  • PDF

Restoring Omitted Sentence Constituents in Encyclopedia Documents Using Structural SVM (Structural SVM을 이용한 백과사전 문서 내 생략 문장성분 복원)

  • Hwang, Min-Kook;Kim, Youngtae;Ra, Dongyul;Lim, Soojong;Kim, Hyunki
    • Journal of Intelligence and Information Systems
    • /
    • v.21 no.2
    • /
    • pp.131-150
    • /
    • 2015
  • Omission of noun phrases for obligatory cases is a common phenomenon in sentences of Korean and Japanese, which is not observed in English. When an argument of a predicate can be filled with a noun phrase co-referential with the title, the argument is more easily omitted in Encyclopedia texts. The omitted noun phrase is called a zero anaphor or zero pronoun. Encyclopedias like Wikipedia are major source for information extraction by intelligent application systems such as information retrieval and question answering systems. However, omission of noun phrases makes the quality of information extraction poor. This paper deals with the problem of developing a system that can restore omitted noun phrases in encyclopedia documents. The problem that our system deals with is almost similar to zero anaphora resolution which is one of the important problems in natural language processing. A noun phrase existing in the text that can be used for restoration is called an antecedent. An antecedent must be co-referential with the zero anaphor. While the candidates for the antecedent are only noun phrases in the same text in case of zero anaphora resolution, the title is also a candidate in our problem. In our system, the first stage is in charge of detecting the zero anaphor. In the second stage, antecedent search is carried out by considering the candidates. If antecedent search fails, an attempt made, in the third stage, to use the title as the antecedent. The main characteristic of our system is to make use of a structural SVM for finding the antecedent. The noun phrases in the text that appear before the position of zero anaphor comprise the search space. The main technique used in the methods proposed in previous research works is to perform binary classification for all the noun phrases in the search space. The noun phrase classified to be an antecedent with highest confidence is selected as the antecedent. However, we propose in this paper that antecedent search is viewed as the problem of assigning the antecedent indicator labels to a sequence of noun phrases. In other words, sequence labeling is employed in antecedent search in the text. We are the first to suggest this idea. To perform sequence labeling, we suggest to use a structural SVM which receives a sequence of noun phrases as input and returns the sequence of labels as output. An output label takes one of two values: one indicating that the corresponding noun phrase is the antecedent and the other indicating that it is not. The structural SVM we used is based on the modified Pegasos algorithm which exploits a subgradient descent methodology used for optimization problems. To train and test our system we selected a set of Wikipedia texts and constructed the annotated corpus in which gold-standard answers are provided such as zero anaphors and their possible antecedents. Training examples are prepared using the annotated corpus and used to train the SVMs and test the system. For zero anaphor detection, sentences are parsed by a syntactic analyzer and subject or object cases omitted are identified. Thus performance of our system is dependent on that of the syntactic analyzer, which is a limitation of our system. When an antecedent is not found in the text, our system tries to use the title to restore the zero anaphor. This is based on binary classification using the regular SVM. The experiment showed that our system's performance is F1 = 68.58%. This means that state-of-the-art system can be developed with our technique. It is expected that future work that enables the system to utilize semantic information can lead to a significant performance improvement.

Character Identification on Multiparty Dialogues using Multimodal Features (멀티모달 자질을 활용한 다중 화자 대화 속 인물 식별)

  • Han, Kijong;Choi, Seong-Ho;Shin, Giyeon;Zhang, Byoung-Tak;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.215-219
    • /
    • 2018
  • 다중 화자 대화 속 인물 식별이란 여러 등장인물이 나오는 대본에서 '그녀', '아버지' 등 인물을 지칭하는 명사 또는 명사구가 실제 어떤 인물을 나타내는지 파악하는 문제이다. 대본 자연어 데이터만을 입력으로 하는 대화 속 인물 식별 문제는 드라마 대본에 대해서 데이터가 구축 되었고 이를 기반으로 여러 연구가 진행되었다. 그러나, 사람도 다중 화자 대화의 문장만 보고는 인물을 지칭하는 명사 또는 명사구가 실제 어떤 인물인지 파악하기 어려운 경우가 있다. 이에 본 논문에서는 발화가 되는 시점의 영상 장면 정보를 추가적으로 활용하여 인물 식별의 성능을 높이는 방법을 제시한다. 또한 기존 대화 속 인물 식별 연구들은 미리 정의된 인물을 대상으로 분류하는 형태로 접근해왔다. 이는 학습에 사용되지 않았던 인물이 나오는 임의의 다른 드라마 대본이나 대화 등에 바로 적용될 수 없다. 이에 본 논문에서는 영상 정보는 활용하되, 한번 학습하면 임의의 대본에 적용될 수 있도록 사전 인물 정보를 사용하지 않는 상호참조해결 기반의 인물 식별 방법도 제시한다.

  • PDF

Resolving Structural Ambiguity of Korean Based on Multiple Parse Filtering (다중 파스 여과에 기반한 한국어의 구조적 중의성 해소)

  • Eom, Mi-Hyun;Shin, Dae-Gyu;Lim, Byung-Jun;Ra, Dong-Yul
    • Annual Conference on Human and Language Technology
    • /
    • 1996.10a
    • /
    • pp.443-451
    • /
    • 1996
  • 본 논문은 한국어의 구문 분석시 생기는 구조적 중의성 현상들 중 명사구를 용언에 부각할 때 발생하는 많은 중의성과 관형용언구가 명사구를 수식할 때 발생하는 중의성들을 해소하는 방법에 대해 다룬다. 대부분의 한국어 문장들이 이러한 중의성 현상을 포함한다. 우리는 문장 분석시 나타나는 다중 파스들을 스택을 이용하여 관리하여 중의성에 의한 다중 파스들을 비교하여 적합하지 않은 파스들을 여과하므로써 중의성을 해소한다. 중의성 해소를 위한 정보원으로서 격 정보와 통계 정보를 이용하는 알고리즘을 제시한다.

  • PDF

A Study on Korean Language Processing of Degree Adverb modifying Stative Noun (한국어에서 상태성 명사 수식 정도부사의 처리에 관한 연구)

  • Park, Sung-Won;Min, Chang-Woo;Kim, Seong-Mook
    • Annual Conference on Human and Language Technology
    • /
    • 2001.10d
    • /
    • pp.373-380
    • /
    • 2001
  • 한국어에서 부사는 관형사와 구별하여 통사적으로 명사 등의 체언을 수식할 수 없다고 분석하는 것이 일반적이다. 의미적으로 상태성 명사와 수식관계를 가질 수 있는 정도부사의 경우에도 명사를 직접 수식하는 것이 아니라 그 명사를 보어로 취하는 지정사를 포함한 지정사구 전체를 수식한다는 것이 현재의 이론언어학에서의 입장이다. 본 논문에서는 말뭉치에 나타난 실제 문장을 기계적으로 처리하는 관점에서 정도부사의 수식을 받는 것은 지정사구가 아니라 상태성 명사 자체로 설정하고자 한다. 이러한 근거로서 말뭉치에서 추출한 실제 문장을 중심으로 정도부사의 수식을 받는 지정사구에 지정사가 생략되는 경우와 지정사구 형태가 아닌 다양한 명사구 형태 역시 정도부사의 수식을 받는 경우가 존재함을 보인다. 또한 정도 부사와 결합하는 명사들이 갖는 의미적 특성을 통해 정도부사와 명사와 결합시켜야 수식 관계의 처리에 용이함을 보이고 정도부사에 대한 이론적 설명에도 타당함을 보인다. 마지막으로 말뭉치에 나타난 정도부사의 수식을 받는 명사의 용례를 분석하여 빈도 및 하위 분류 특성을 살펴본다.

  • PDF

Korean Coreference Resolution using the Multi-pass Sieve (Multi-pass Sieve를 이용한 한국어 상호참조해결)

  • Park, Cheon-Eum;Choi, Kyoung-Ho;Lee, Changki
    • Journal of KIISE
    • /
    • v.41 no.11
    • /
    • pp.992-1005
    • /
    • 2014
  • Coreference resolution finds all expressions that refer to the same entity in a document. Coreference resolution is important for information extraction, document classification, document summary, and question answering system. In this paper, we adapt Stanford's Multi-pass sieve system, the one of the best model of rule based coreference resolution to Korean. In this paper, all noun phrases are considered to mentions. Also, unlike Stanford's Multi-pass sieve system, the dependency parse tree is used for mention extraction, a Korean acronym list is built 'dynamically'. In addition, we propose a method that calculates weights by applying transitive properties of centers of the centering theory when refer Korean pronoun. The experiments show that our system obtains MUC 59.0%, $B_3$ 59.5%, Ceafe 63.5%, and CoNLL(Mean) 60.7%.

Pronoun Resolution in French Discourse by Korean-learners of French (한국인 프랑스어 학습자의 프랑스어 담화 이해와 대명사 해석 연구)

  • Ahn, Eui-Jeen;Song, Hyun-Joo;Kim, Min-Ju;Leem, Jai-Ho
    • Korean Journal of Cognitive Science
    • /
    • v.25 no.4
    • /
    • pp.417-433
    • /
    • 2014
  • This research examined whether Korean-learners of French were sensitive to discourse structure in anaphoric pronoun resolution. In the experiments, participants read three-sentenced stories and made judgements about how the last sentence of each story makes sense in relation to previous two sentences on a 7-point Likert scale. The stories differed in whether the subject of the last sentence continued the subject of the preceding sentence, and whether the subject of the last sentence was mentioned with a pronoun or a proper noun. The results from French participants replicated the patterns shown in previous studies. In contrast, Koreans exhibited greater difficulty in interpreting pronoun-subject sentences than noun-subject sentences regardless of subject continuity. These findings are discussed within the context of developmental perspective, which suggests the processing of co-referential interpretation may interact with language proficiency.

Feature Extraction of Web Document using Association Word Mining (연관 단어 마이닝을 사용한 웹문서의 특징 추출)

  • 고수정;최준혁;이정현
    • Journal of KIISE:Databases
    • /
    • v.30 no.4
    • /
    • pp.351-361
    • /
    • 2003
  • The previous studies to extract features for document through word association have the problems of updating profiles periodically, dealing with noun phrases, and calculating the probability for indices. We propose more effective feature extraction method which is using association word mining. The association word mining method, by using Apriori algorithm, represents a feature for document as not single words but association-word-vectors. Association words extracted from document by Apriori algorithm depend on confidence, support, and the number of composed words. This paper proposes an effective method to determine confidence, support, and the number of words composing association words. Since the feature extraction method using association word mining does not use the profile, it need not update the profile, and automatically generates noun phrase by using confidence and support at Apriori algorithm without calculating the probability for index. We apply the proposed method to document classification using Naive Bayes classifier, and compare it with methods of information gain and TFㆍIDF. Besides, we compare the method proposed in this paper with document classification methods using index association and word association based on the model of probability, respectively.