• Title/Summary/Keyword: 한글과컴퓨터

Search Result 347, Processing Time 0.024 seconds

Two-step Document Summarization using Deep Learning and Maximal Marginal Relevance (딥러닝과 Maximal Marginal Relevance를 이용한 2단계 문서 요약)

  • Jeon, Jaewon;Hwang, Hyunsun;Lee, Changki
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.297-300
    • /
    • 2019
  • 문서 요약은 길이가 긴 원본 문서의 의미는 유지한 채 원본보다 짧은 문서나 문장을 생성하는 자연어 처리 태스크이다. 본 논문에서는 Maximal Marginal Relevance(MMR)를 이용한 sequence-to-sequence 문장 추출 모델을 이용하여 의미가 중복되는 문장을 최소화하는 문장을 추출하고 추출된 문장을 sequence-to-sequence 모델을 통해 요약문을 생성하는 2단계 문서 요약 모델을 제안한다. 실험 결과 MMR을 활용하지 않았던 기존의 방법론보다 Rouge 성능이 향상되었다.

  • PDF

Korean Head-Tail POS-Tagger by using Transformer (Transformer를 이용한 한국어 Head-Tail 품사 태거)

  • Kim, Jung-Min;Suh, Hyun-Jae;Kang, Seung-Shik
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.544-547
    • /
    • 2021
  • 한국어의 품사 태깅 문제는 입력 어절의 형태소 분석 후보들로부터 통계적으로 적절한 품사 태그를 가지는 후보들을 찾는 방식으로 해결하여 왔다. 어절을 형태소 단위로 분리하고 품사를 부착하는 기존의 방식은 품사태그 정보를 딥러닝 feature로 사용할 때 문장의 의미를 이해하는데 복잡도를 증가시키는 요인이 된다. 본 연구에서는 품사 태깅 문제를 단순화 하여 한 어절을 Head와 Tail이라는 두 가지 유형의 형태소 토큰으로 분리하여 Head와 Tail에 대해 품사를 부착한다. Head-Tail 품사 태깅 방법을 Sequence-to-Sequence 문제로 정의하여 Transformer를 이용한 Head-Tail 품사 태거를 설계하고 구현하였다. 학습데이터로는 KCC150 말뭉치의 품사 태깅 말뭉치 중에서 788만 문장을 사용하고, 실험 데이터로는 10만 문장을 사용하였다. 실험 결과로 토큰 정확도는 99.75%, 태그 정확도는 99.39%, 토큰-태그 정확도는 99.31%로 나타났다.

  • PDF

Deep Learning based Korean Dialect Machine Translation Research (딥러닝 기반 한국어 방언 기계번역 연구)

  • Lim, Sangbeom;Park, Chanjun;Jo, Jaechoon;Yang, Yeongwook
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.490-495
    • /
    • 2021
  • 표준어와 방언사이에는 위계가 존재하지 않고 열등하지 않다는 사상을 기반으로 방언을 보존하기 위한 다양한 노력들이 이루어지고있다. 또한 동일한 국가내에서 표준어와 방언간의 의사소통이 잘 이루어져야한다. 본 논문은 방언 연구보존과 의사소통의 중요성을 바탕으로 한국어 방언 기계번역 연구를 진행하였다. 대표적인 방언 중 하나인 제주어와 더불어 강원어, 경상어, 전라어, 충청어 기반의 기계번역 연구를 진행하였다. 공개된 AI Hub 데이터를 바탕으로 Transformer기반 copy mechanism을 적용하여 방언 기계번역의 성능을 높이는 모델링 연구를 진행하였으며 모델배포의 효율성을 위하여 Many-to-one기반 universal한 방언 기계번역기를 개발하였고 이를 one-to-one 모델과의 성능비교를 진행하였다. 실험결과 copy mechanism이 방언 기계번역 모델에 매우 효과적인 요소임을 알 수 있었다.

  • PDF

English-Korean Neural Machine Translation using MASS (MASS를 이용한 영어-한국어 신경망 기계 번역)

  • Jung, Young-Jun;Park, Cheon-Eum;Lee, Chang-Ki;Kim, Jun-Seok
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.236-238
    • /
    • 2019
  • 신경망 기계 번역(Neural Machine Translation)은 주로 지도 학습(Supervised learning)을 이용한 End-to-end 방식의 연구가 이루어지고 있다. 그러나 지도 학습 방법은 데이터가 부족한 경우에는 낮은 성능을 보이기 때문에 BERT와 같은 대량의 단일 언어 데이터로 사전학습(Pre-training)을 한 후에 미세조정(Finetuning)을 하는 Transfer learning 방법이 자연어 처리 분야에서 주로 연구되고 있다. 최근에 발표된 MASS 모델은 언어 생성 작업을 위한 사전학습 방법을 통해 기계 번역과 문서 요약에서 높은 성능을 보였다. 본 논문에서는 영어-한국어 기계 번역 성능 향상을 위해 MASS 모델을 신경망 기계 번역에 적용하였다. 실험 결과 MASS 모델을 이용한 영어-한국어 기계 번역 모델의 성능이 기존 모델들보다 좋은 성능을 보였다.

  • PDF

Learning Contextual Meaning Representations of Named Entities for Correcting Factual Inconsistent Summary (개체명 문맥의미표현 학습을 통한 기계 요약의 사실 불일치 교정)

  • Park, Junmo;Noh, Yunseok;Park, Seyoung
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.54-59
    • /
    • 2020
  • 사실 불일치 교정은 기계 요약 시스템이 요약한 결과를 실제 사실과 일치하도록 만드는 작업이다. 실제 요약 생성연구에서 가장 공통적인 문제점은 요약을 생성할 때 잘못된 사실을 생성하는 것이다. 이는 요약 모델이 실제 서비스로 상용화 하는데 큰 걸림돌이 되는 부분 중 하나이다. 본 논문에서는 원문으로부터 개체명을 가져와 사실과 일치하는 문장으로 고치는 방법을 제안한다. 이를 위해서 언어 모델이 개체명에 대한 문맥적 표현을 잘 생성할 수 있도록 학습시킨다. 그리고 학습된 모델을 이용하여 원문과 요약문에 등장한 개체명들의 문맥적 표현 비교를 통해 적절한 단어로 교체함으로써 요약문의 사실 불일치를 해소한다. 제안 모델을 평가하기 위해 추상 요약 데이터를 이용해 학습데이터를 만들어 학습하고, 실제 시나리오에서 적용가능성을 검증하기 위해 모델이 요약한 요약문을 이용해 실험을 수행했다. 실험 결과, 자동 평가와 사람 평가에서 제안 모델이 비교 모델보다 높은 성능을 보여주었다.

  • PDF

A Mobile System Development which has Function of Vietnam Hotel Recommendation based on Deep Learning (딥러닝 기반 베트남 호텔 맞춤 추천 모바일 시스템 개발)

  • Oh, Jong-Hyun;Seo, Young-Soo;Kang, Hyun-Kyu
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.408-413
    • /
    • 2020
  • 본 논문은 아고다 사이트의 호텔 정보를 크롤링하여 사용자의 선호 호텔을 구글에서 제공하는 Tensorflow로 인공신경망 딥러닝 학습하여 사용자가 선호하는 호텔을 맞춤 추천하는 애플리케이션의 설계 및 구현에 대하여 서술한다. 본 애플리케이션은 해외(베트남) 호텔을 취향에 맞게 추천받을 수 있도록 만들어진 애플리케이션으로 기존의 필터링 방식으로 추천하는 방식의 애플리케이션들과 달리 사용자의 취향을 딥러닝 학습을 통해 파악하고 최적의 호텔 정보를 추천하는 기능을 제공한다. 본 애플리케이션에 사용된 선호 호텔 예측 모델은 약 84%의 정확도를 보이며 추천 별점으로 표시되어 사용자가 각 호텔에 대해 얼마만큼 선호도를 갖는지 알 수 있다.

  • PDF

Developing a Model for Predicting of Ships Accident Using Multi-Task Learning (다중 작업 학습을 이용한 선박사고 형량 예측 모델 제작)

  • Park, Ho-Min;Cheon, Min-Ah;Kim, Jae-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.418-420
    • /
    • 2020
  • 해양에서의 선박사고 발생 횟수는 매년 꾸준히 증가하고 있다. 한국해양안전심판원에서는 이러한 사례들의 판결을 관련 인력들이 공유할 수 있도록 재결서를 제작하여 발간하고 있다. 그러나 선박사고는 2019년 기준 2,971건이 발생하여, 재결서만으로 관련 인력들이 다양한 사건들의 판례를 익히기엔 어려움이 따른다. 따라서 본 논문에서는 문장 표상 기법을 이용한 다중 작업 학습을 이용하여 선박사고의 사고 유형, 적용되는 법령, 형량을 분류 및 예측하는 실험을 진행하였다. USE, KorBERT 두 가지의 모델을 2010~2019년 재결서 데이터로 학습하여 선박사고의 사고 유형, 적용되는 법령, 형량을 분류 및 예측하였으며 그에 따른 정확도를 비교한 결과, KorBERT 문장 표상을 사용한 분류 모델이 가장 정확도가 높음을 확인했다.

  • PDF

Quality, not Quantity? : Effect of parallel corpus quantity and quality on Neural Machine Translation (양보다 질? : 병렬 말뭉치의 양과 질이 인공신경망 기계번역에 미치는 효과)

  • Park, Chanjun;Lee, Yeonsu;Lee, Chanhee;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.363-368
    • /
    • 2020
  • 글로벌 시대를 맞이하여 언어의 장벽을 해소하기 위하여 기계번역 연구들이 전 세계적으로 이루어지고 있다. 딥러닝의 등장으로 기존 규칙 및 통계기반 방법론에 비하여 눈에 띄는 성능향상을 이루어내고 있으며 많은 연구들이 이루어지고 있다. 인공신경망 기반 기계번역 모델을 만들 때 가장 중요한 요소는 병렬 말뭉치의 양과 질이다. 본 논문은 한-영 대용량의 말뭉치를 수집하고 병렬 말뭉치 필터링 기법을 적용하여 데이터의 양과 질을 충족시켰으며 한-영 기계번역 관련 객관적인 테스트셋인 Iwslt 16, Iwslt 17을 기준으로 기존 한-영 기계번역 관련 연구 중 가장 좋은 성능을 보였다.

  • PDF

Korean End-to-end Neural Coreference Resolution with BERT (BERT 기반 End-to-end 신경망을 이용한 한국어 상호참조해결)

  • Kim, Kihun;Park, Cheonum;Lee, Changki;Kim, Hyunki
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.181-184
    • /
    • 2019
  • 상호참조해결은 주어진 문서에서 상호참조해결 대상이 되는 멘션(mention)을 식별하고, 같은 개체(entity)를 의미하는 멘션을 찾아 그룹화하는 자연어처리 태스크이다. 한국어 상호참조해결에서는 멘션 탐지와 상호참조해결을 동시에 진행하는 end-to-end 모델과 포인터 네트워크 모델을 이용한 방법이 연구되었다. 구글에서 공개한 BERT 모델은 자연어처리 태스크에 적용되어 많은 성능 향상을 보였다. 본 논문에서는 한국어 상호참조해결을 위한 BERT 기반 end-to-end 신경망 모델을 제안하고, 한국어 데이터로 사전 학습된 KorBERT를 이용하고, 한국어의 구조적, 의미적 특징을 반영하기 위하여 의존구문분석 자질과 개체명 자질을 적용한다. 실험 결과, ETRI 질의응답 도메인 상호참조해결 데이터 셋에서 CoNLL F1 (DEV) 71.00%, (TEST) 69.01%의 성능을 보여 기존 연구들에 비하여 높은 성능을 보였다.

  • PDF

EyeBERT: Eye tracking based Human Reading for Extractive Text Summarization (EyeBERT: 아이트래킹 기반의 휴먼 리딩을 반영한 추출 요약 기법)

  • Lee, Seolhwa;Hur, Yuna;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.522-526
    • /
    • 2019
  • 추출 요약(Extractive summarization)은 문서내에 주요한 요약정보가 되는 문장 또는 단어를 추출하여 요약을 생성하는 기법이다. 딥러닝 기법들이 많이 발전하면서 요약 기법에도 sequence-to-sequence와 같은 많은 시도들이 있었지만 대부분의 방법론들은 딥러닝의 모델 구조관점으로 접근하거나 요약에 있어서 단순히 입력 텍스트를 넣고 알고리즘이 처리하는 머신 리딩(Machine reading)관점으로 접근한다. 텍스트 요약 태스크 자체는 사람이 텍스트에 대한 정보 파악을 요약문을 통해 빠르게 하고 싶은 궁극적인 목표가 있으므로, 사람이 텍스트 요약에 필요한 인지처리과정을 반영할 필요가 있다. 결국, 기존의 머신 리딩보다는 휴먼 리딩(Human reading)에 관한 이해와 구조적 접근이 필요하다. 따라서 본 연구는 휴먼 리딩을 위한 인지처리과정을 위해 아이트래킹 데이터 기반의 새로운 추출 요약 모델을 제안한다.

  • PDF