• Title/Summary/Keyword: 단어 문맥

Search Result 211, Processing Time 0.027 seconds

Development of Context and Vocabulary Group-Based Intelligent English Vocabulary Learning System (문맥 및 어휘 그룹 기반의 지능형 영어 어휘 학습 시스템의 개발)

  • Do-Hyeon Kim;Hong-Jun Jang;Byoungwook Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.19-20
    • /
    • 2023
  • 영어 교육 시장 확대로 다양한 영어 학습 시스템이 개발되고 있다. 그러나 어휘의 문맥적 이해와 효과적인 학습 방법을 결합한 지능형 어휘 학습 시스템에 대한 연구는 미비하다. 본 연구에서는 임의의 n 개 영어 단어가 한 그룹으로 제시되고, 이들을 모두 포함한 예문을 제공하는 지능형 영어 어휘 학습 시스템을 개발한다. 본 연구에서는 임의의 n 개 영어 단어가 주어졌을 때 문맥에 맞는 영어 예문을 자동으로 생성하는 모델을 개발하였다. 어휘 평가를 바탕으로 자동으로 취약 어휘를 선정하며 학습자들이 해당 어휘를 학습 할 수 있도록 진행한다. 본 연구에서 개발한 지능형 영어 어휘 학습 시스템의 사용성 평가를 위해 설문 검사를 실시하였다. 설문 결과는 문맥 및 어휘 그룹 기반의 지능형 영어 학습 시스템은 사용자들이 사용하기 편리하고 어휘 능력을 향상시키는데 도움이 될 수 있음을 보여준다.

A Method of Supervised Word Sense Disambiguation Using Decision Lists Based on Syntactic Clues (구문관계에 기반한 단서의 결정 리스트를 이용한 지도학습 어의 애매성 해결 방법)

  • Kim, Kweon-Yang
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.13 no.2
    • /
    • pp.125-130
    • /
    • 2003
  • This paper presents a simple method of supervised word sense disambiguation using decision lists based on syntactic clues. This approach focuses on the syntactic relations between the given ambiguous word and surrounding words in context for resolving a given sense ambiguity. By identifying and utilizing only the single best disambiguation evidence in a given context instead of combining a set of clues, the algorithm decides the correct sense. Experiments with 10 Korean verbs show that adding syntactic clues to a basic set of surrounding context words improves 33% higher performance than baseline accuracy. In addition, our method using decision lists is 3% higher than a method using integration of all disambiguation evidences.

Korean Word Sense Disambiguation Using BERT (BERT를 이용한 한국어 단어 의미 모호성 해소)

  • Youn, Jun Young;Shin, Hyeong Jin;Park, Jeong Yeon;Lee, Jae Sung
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.485-487
    • /
    • 2019
  • 단어의 의미 모호성을 해결하기 위한 연구는 오랫동안 지속되어 왔으며, 특히 최근에는 단어 벡터를 이용한 연구가 활발하게 이루어져왔다. 본 논문에서는 문맥 기반 단어 벡터인 BERT를 이용하여 한국어 단어 의미 모호성을 해소하기 위한 방법을 제안하고, 그 실험 결과를 기존의 한국어 단어 의미 모호성 연구 결과와 비교한다.

  • PDF

LSTM based Language Model for Topic-focused Sentence Generation (문서 주제에 따른 문장 생성을 위한 LSTM 기반 언어 학습 모델)

  • Kim, Dahae;Lee, Jee-Hyong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.07a
    • /
    • pp.17-20
    • /
    • 2016
  • 딥러닝 기법이 발달함에 따라 텍스트에 내재된 의미 및 구문을 어떠한 벡터 공간 상에 표현하기 위한 언어 모델이 활발히 연구되어 왔다. 이를 통해 자연어 처리를 기반으로 하는 감성 분석 및 문서 분류, 기계 번역 등의 분야가 진보되었다. 그러나 대부분의 언어 모델들은 텍스트에 나타나는 단어들의 일반적인 패턴을 학습하는 것을 기반으로 하기 때문에, 문서 요약이나 스토리텔링, 의역된 문장 판별 등과 같이 보다 고도화된 자연어의 이해를 필요로 하는 연구들의 경우 주어진 텍스트의 주제 및 의미를 고려하기에 한계점이 있다. 이와 같은 한계점을 고려하기 위하여, 본 연구에서는 기존의 LSTM 모델을 변형하여 문서 주제와 해당 주제에서 단어가 가지는 문맥적인 의미를 단어 벡터 표현에 반영할 수 있는 새로운 언어 학습 모델을 제안하고, 본 제안 모델이 문서의 주제를 고려하여 문장을 자동으로 생성할 수 있음을 보이고자 한다.

  • PDF

An Iterative Approach to Graph-based Word Sense Disambiguation Using Word2Vec (Word2Vec을 이용한 반복적 접근 방식의 그래프 기반 단어 중의성 해소)

  • O, Dongsuk;Kang, Sangwoo;Seo, Jungyun
    • Korean Journal of Cognitive Science
    • /
    • v.27 no.1
    • /
    • pp.43-60
    • /
    • 2016
  • Recently, Unsupervised Word Sense Disambiguation research has focused on Graph based disambiguation. Graph-based disambiguation has built a semantic graph based on words collocated in context or sentence. However, building such a graph over all ambiguous word lead to unnecessary addition of edges and nodes (and hence increasing the error). In contrast, our work uses Word2Vec to consider the most similar words to an ambiguous word in the context or sentences, to rebuild a graph of the matched words. As a result, we show a higher F1-Measure value than the previous methods by using Word2Vec.

  • PDF

Context-sensitive Spelling Correction using Measuring Relationship between Words (단어 간 연관성 측정을 통한 문맥 철자오류 교정)

  • Choi, Sung-Ki;Kim, Minho;Kwon, Hyuk-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1362-1365
    • /
    • 2013
  • 한국어 텍스트에 나타나는 오류어의 유형은 크게 단순 철자오류와 문맥 철자오류로 구분할 수 있다. 이중 문맥 철자오류는 문맥의 의미 통사적 관계를 고려해야만 해당 어휘의 오류 여부를 알 수 있는 오류로서 철자오류 중 교정 난도가 가장 높다. 문맥 철자오류의 유형은 발음 유상성에 따른 오류, 오타 오류, 문법 오류, 띄어쓰기 오류로 구분할 수 있다. 본 연구에서는 오타 오류에 의해 발생하는 문맥 철자오류를 어의 중의성 해소와 같은 문제로 보고 교정 어휘 쌍을 이용한 통계적 문맥 철자오류 교정 방법을 제안한다. 미리 생성한 교정 어휘 쌍을 대상으로 교정 어휘 쌍의 각 어휘와 주변 문맥 간 의미적 연관성을 통계적으로 측정하여 문맥 철자오류를 검색하고 교정한다. 제안한 방법을 적용한 결과 3개의 교정 어휘 쌍 모두 90%를 넘는 정확도를 보였다.

Merging Context Information and Recognition Result for Robust Speech Recognition in Noisy Environments (잡음 환경에서의 강인한 음성인식을 위한 문맥 정보와 음성인식 결과의 융합)

  • Song, Won-Moon;Kim, Eun-Ju;Kim, Myung-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.733-735
    • /
    • 2005
  • 최근 음성인식 분야 에서는 잡음 환경에서 좀 더 신뢰도 높은 음성 인식 결과물 얻기 위하여 인식 결과 도출 단계에서 여러 가지 정보를 융합 하는 방법이나 인식결과를 후처리 하여 새로운 결과를 얻어 내는 방법들이 연구 되고 있다. 본 논문에서는 개인 모바일 기기에서의 음성 인식 환경에서 사용자의 발화 패턴 정보를 가지는 문맥 정보를 활용함으로서 잡음 환경에서의 음성 정보 손실에 따른 인식률 하락을 보완하는 방법을 제안한다. 먼저 사용자의 기기 사용 로그나 발화 로그 정보로부터 특정 명령어들의 순차적 발화 패턴을 마이닝하여 문맥 정보를 구성한다. 이 후 음성 발화시에 인식기의 최종 인식 결과에 대한 신뢰도가 떨어진다고 판단될 때 앞서 얻어진 문맥 정보의 신뢰도를 인식기의 각 후보단어들의 인식률과 융합하여 새로운 인식 결과를 도출해 낸다. 이러한 과정에서 인식기 결과에 대한 신뢰성을 판단하는 기준을 실험을 통하여 결정 하였으며 신뢰성이 기준 이하일 경우의 융합 과정을 위하여 후보 단어 인식률과 문맥정보를 적절히 융합할 수 있는 방법을 제안한다.

  • PDF

A Study-on Context-Dependent Acoustic Models to Improve the Performance of the Korea Speech Recognition (한국어 음성인식 성능향상을 위한 문맥의존 음향모델에 관한 연구)

  • 황철준;오세진;김범국;정호열;정현열
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.2 no.4
    • /
    • pp.9-15
    • /
    • 2001
  • In this paper we investigate context dependent acoustic models to improve the performance of the Korean speech recognition . The algorithm are using the Korean phonological rules and decision tree, By Successive State Splitting(SSS) algorithm the Hidden Merkov Netwwork(HM-Net) which is an efficient representation of phoneme-context-dependent HMMs, can be generated automatically SSS is powerful technique to design topologies of tied-state HMMs but it doesn't treat unknown contexts in the training phoneme contexts environment adequately In addition it has some problem in the procedure of the contextual domain. In this paper we adopt a new state-clustering algorithm of SSS, called Phonetic Decision Tree-based SSS (PDT-SSS) which includes contexts splits based on the Korean phonological rules. This method combines advantages of both the decision tree clustering and SSS, and can generated highly accurate HM-Net that can express any contexts To verify the effectiveness of the adopted methods. the experiments are carried out using KLE 452 word database and YNU 200 sentence database. Through the Korean phoneme word and sentence recognition experiments. we proved that the new state-clustering algorithm produce better phoneme, word and continuous speech recognition accuracy than the conventional HMMs.

  • PDF

Determining the Specificity of Terms based on Compositional and Contextual Information (구성정보와 문맥정보를 이용한 용어의 전문성 측정 방법)

  • 류법모;배선미;최기선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.901-903
    • /
    • 2004
  • 어떤 용어가 전문적인 개념을 많이 내포하고 있을 때 전문성(specificity)이 높다고 말한다. 본 논문에서는 정보이론에 기반한 방법으로 전운용어가 내포하는 전문성을 정량적으로 계산하는 방법을 제안한다. 제안한 방법은 전문용어의 구성정보를 이용하는 방법과 문맥정보를 이용하는 방법으로 나눈다. 구성정보를 이용하는 방법에서는 전문용어틀 구성하는 단어의 빈도수, tf.idf 값, 내부 수식구조 등을 이용하고, 문맥정보를 이용하는 방법에서는 전문용어를 수식하는 단어들의 분포를 이용한다. 제안한 방법은 분야에 독립적으로 적용될 수 있고, 전문용어 생성 절차에 대한 특징을 잘 표현할 수 있는 장정이 있다. MeSH 트리에 포함된 질병명을 대상으로 실험한 결과 82.0%의 정확률을 보였다.

  • PDF

Korean End-to-End Coreference Resolution with BERT for Long Document (긴 문서를 위한 BERT 기반의 End-to-End 한국어 상호참조해결)

  • Jo, Kyeongbin;Jung, Youngjun;Lee, Changki;Ryu, Jihee;Lim, Joonho
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.259-263
    • /
    • 2021
  • 상호참조해결은 주어진 문서에서 상호참조해결 대상이 되는 멘션(mention)을 식별하고, 동일한 개체(entity)를 의미하는 멘션들을 찾아 그룹화하는 자연어처리 태스크이다. 최근 상호참조해결에서는 BERT를 이용하여 단어의 문맥 표현을 얻은 후, 멘션 탐지와 상호참조해결을 동시에 진행하는 end-to-end 모델이 주로 연구되었으나, 512 토큰 이상의 긴 문서를 처리하기 위해서는 512 토큰 이하로 문서를 분할하여 처리하기 때문에 길이가 긴 문서에 대해서는 상호참조해결 성능이 낮아지는 문제가 있다. 본 논문에서는 512 토큰 이상의 긴 문서를 위한 BERT 기반의 end-to-end 상호참조해결 모델을 제안한다. 본 모델은 긴 문서를 512 이하의 토큰으로 쪼개어 기존의 BERT에서 단어의 1차 문맥 표현을 얻은 후, 이들을 다시 연결하여 긴 문서의 Global Positional Encoding 또는 Embedding 값을 더한 후 Global BERT layer를 거쳐 단어의 최종 문맥 표현을 얻은 후, end-to-end 상호참조해결 모델을 적용한다. 실험 결과, 본 논문에서 제안한 모델이 기존 모델과 유사한 성능을 보이면서(테스트 셋에서 0.16% 성능 향상), GPU 메모리 사용량은 1.4배 감소하고 속도는 2.1배 향상되었다.

  • PDF