• Title/Summary/Keyword: 한글과컴퓨터

Search Result 347, Processing Time 0.022 seconds

Knowledge-grounded Dialogue Generation Using Domain-level Learning Approach for Practical Services (현업 서비스를 위한 도메인 수준 학습 방법을 활용한 지식 기반 대화생성)

  • Chae-Gyun Lim;Young-Seob Jeong;ChangWon Ok;Ho-Jin Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.619-623
    • /
    • 2022
  • 대화생성은 대규모 학습 데이터로부터 사전 학습된 언어모델을 활용한 도전적인 다운스트림 태스크 중 하나이다. 대화에서 특정한 지식에 대한 맥락이 보존된 응답 문장을 생성하기 위한 기술의 일환으로써 지식 기반 대화생성이 연구되고 있으며, 현업에서는 사업목표에 따른 대화 서비스를 제공하는 목적으로 이러한 기술을 적용할 수 있다. 본 논문에서는, 각각의 서비스 도메인에 특화된 모델을 적절히 활용 가능하도록 전체 데이터를 도메인별로 구분하여 학습한 다수의 대화생성 모델을 구축한다. 또한, 특정 도메인의 데이터로 학습된 모델이 나머지 도메인에서 어떤 수준의 대화생성이 가능한지 비교 분석함으로써 개별 학습된 모델들이 도메인의 특성에 따라 서로 다른 영향력이나 연관성을 나타낼 가능성을 확인한다. 이러한 실험적인 분석 결과를 바탕으로 현업의 서비스에서 개별 도메인에 특화된 모델이 적절히 활용하는 것이 유용함을 확인하고자 한다.

  • PDF

Entity-centric Dependency Tree based Model for Sentence-level Relation Extraction (문장 수준 관계 추출을 위한 개체 중심 구문 트리 기반 모델)

  • Park, Seongsik;Kim, Harksoo
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.235-240
    • /
    • 2021
  • 구문 트리의 구조적 정보는 문장 수준 관계 추출을 수행하는데 있어 매우 중요한 자질 중 하나다. 기존 관계 추출 연구는 구문 트리에서 최단 의존 경로를 적용하는 방식으로 관계 추출에 필요한 정보를 추출해서 활용했다. 그러나 이런 트리 가지치기 기반의 정보 추출은 관계 추출에 필요한 어휘 정보를 소실할 수도 있다는 문제점이 존재한다. 본 논문은 이 문제점을 해소하기 위해 개체 중심으로 구문 트리를 재구축하고 모든 노드의 정보를 관계 추출에 활용하는 모델을 제안한다. 제안 모델은 TACRED에서 F1 점수 74.9 %, KLUE-RE 데이터셋에서 72.0%로 가장 높은 성능을 보였다.

  • PDF

Natural Langugae Inference as Re-ranking for Multiple Question Answering (질의응답 결과 재순위화를 위한 자연어 추론 모델)

  • Lee, Jihyung;Lee, Geunbae
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.405-409
    • /
    • 2021
  • 자연어 추론은 전제가 주어졌을때 특정 가설이 전제에 기반해 합당한지 검증하는 자연어 처리의 하위 과제이다. 우리는 질의응답 시스템이 도출한 정답 및 근거 문서를 자연어 추론 모델로 검증할 수 있다는 점에 착안하여, HotpotQA 질의응답 데이터셋을 자연어 추론 데이터 형식으로 변환한뒤 자연어 추론 모델을 학습하여 여러 질의응답 시스템이 생성한 결과물을 재순위화하고자 하였다. 그 결과로, 자연어 추론 모델에 의해 재순위화된 결과물은 기존 단일 질의응답 시스템의 결과물보다 대체로 향상된 성능을 보여주었다.

  • PDF

A Concept Language Model combining Word Sense Information and BERT (의미 정보와 BERT를 결합한 개념 언어 모델)

  • Lee, Ju-Sang;Ock, Cheol-Young
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.3-7
    • /
    • 2019
  • 자연어 표상은 자연어가 가진 정보를 컴퓨터에게 전달하기 위해 표현하는 방법이다. 현재 자연어 표상은 학습을 통해 고정된 벡터로 표현하는 것이 아닌 문맥적 정보에 의해 벡터가 변화한다. 그 중 BERT의 경우 Transformer 모델의 encoder를 사용하여 자연어를 표상하는 기술이다. 하지만 BERT의 경우 학습시간이 많이 걸리며, 대용량의 데이터를 필요로 한다. 본 논문에서는 빠른 자연어 표상 학습을 위해 의미 정보와 BERT를 결합한 개념 언어 모델을 제안한다. 의미 정보로 단어의 품사 정보와, 명사의 의미 계층 정보를 추상적으로 표현했다. 실험을 위해 ETRI에서 공개한 한국어 BERT 모델을 비교 대상으로 하며, 개체명 인식을 학습하여 비교했다. 두 모델의 개체명 인식 결과가 비슷하게 나타났다. 의미 정보가 자연어 표상을 하는데 중요한 정보가 될 수 있음을 확인했다.

  • PDF

Comparison of Pointer Network-based Dependency Parsers Depending on Attention Mechanisms (Attention Mechanism에 따른 포인터 네트워크 기반 의존 구문 분석 모델 비교)

  • Han, Mirae;Park, Seongsik;Kim, Harksoo
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.274-277
    • /
    • 2021
  • 의존 구문 분석은 문장 내 의존소와 지배소 사이의 관계를 예측하여 문장 구조를 분석하는 자연어처리 태스크이다. 최근의 딥러닝 기반 의존 구문 분석 연구는 주로 포인터 네트워크를 사용하는 방법으로 연구되고 있다. 포인터 네트워크는 내부적으로 사용하는 attention 기법에 따라 성능이 달라질 수 있다. 따라서 본 논문에서는 포인터 네트워크 모델에 적용되는 attention 기법들을 비교 분석하고, 한국어 의존 구문 분석 모델에 가장 효과적인 attention 기법을 선별한다. KLUE 데이터 셋을 사용한 실험 결과, UAS는 biaffine attention을 사용할 때 95.14%로 가장 높은 성능을 보였으며, LAS는 multi-head attention을 사용했을 때 92.85%로 가장 높은 성능을 보였다.

  • PDF

Korean Question Generation Using Co-Attention Layer of Answer and Passage (정답과 구절의 공동 주의 집중 계층을 이용한 한국어 질문 생성)

  • Kim, Jintae;Noh, Hyungjong;Lee, Yeonsoo;Kim, Harksoo
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.315-320
    • /
    • 2019
  • 질문 생성이란 구절이 입력되면 구절에서 답을 찾을 수 있는 질문을 자동으로 생성하는 작업으로 교육용 시스템, 대화 시스템, QA 시스템 등 다양한 분야에서 중요한 역할을 한다. 질문 생성에서 정답의 단어가 질문에 포함되는 문제점을 해결하기 위해 구절과 정답을 분리한다. 하지만 구절과 정답을 분리하게 되면 구절에서 정답의 정보가 손실되고, 정답에서는 구절의 문맥 정보가 손실되어 정답 유형에 맞는 질문을 생성할 수 없는 문제가 발생된다. 본 논문은 이러한 문제를 해결하기 위해 분리된 정답과 구절의 정보를 연결시켜주는 정답과 구절의 공동 주의 집중 계층을 제안한다. 23,658개의 질문-응답 쌍의 말뭉치를 이용한 실험에서 정답과 구절의 공동 주의 집중 계층이 성능 향상에 기여해 우수한 성능(BLEU-26.7, ROUGE-57.5)을 보였다.

  • PDF

Design of a Version-Compatible HL7 GUI Tool (버전 상호 호환 가능한 HL7 GUI 도구의 설계)

  • Yoon, Hyojeon;Hwang, Dosam
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.454-455
    • /
    • 2019
  • 의료정보 교환을 위한 국제 표준인 HL7 메시지의 처리와 HL7의 다양한 버전 간 호환성 문제를 해결하기 위해 객체 지향적 구조에 기반한 HL7 파서(Parser)가 개발되었다. 그러나 개발된 파서를 의료정보시스템과 연동하여 사용하기 위해서는 의료분야 전문가와 소프트웨어 전문가의 협력이 필수적이다. 또한, 이들 전문가의 협업을 위해서는 각 분야의 전문지식에 대한 상호 이해가 전제되어야 하는데, 이를 위해서는 오랜 시간 상호간의 많은 노력이 필요한 과정이다. 따라서 본 연구에서는 버전 간 호환 가능한 HL7 파서를 기반으로 하여 HL7 메시지의 생성과 변환을 가능하게 하는 HL7 GUI 도구를 설계한다. 이를 통해, 컴퓨터 프로그래밍 언어에 익숙하지 않은 의료 분야의 전문가들도 HL7 GUI 도구를 통해 개념적으로 표현되는 그래프를 직접 디자인하여 의료정보시스템 간의 다양한 버전의 HL7 메시지를 처리하고 교환할 수 있는 환경을 제공한다.

  • PDF

Fake news detection via news elements (요소 정보 활용을 통한 가짜 뉴스 탐지)

  • Han, Sangdo;Lee, Gary Geunbae
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.588-590
    • /
    • 2020
  • 본 연구에서는 가짜 뉴스 탐지를 위한 데이터를 구축하고, 내용 기반의 탐지를 위한 시스템을 제안하였으며, 뉴스의 각 요소 정보가 탐지 성능에 미치는 영향을 확인하였다. 이는 기존의 내용 기반 가짜 뉴스 탐지 방법론들의 단점을 보완할 뿐 아니라 뉴스의 요소 정보가 진위 판별에 미치는 영향을 확인하기 위함이었다. 이를 위해 직접 구축한 뉴스 데이터의 제목과 본문을 따로 인코딩하여 판별하였고, 각 요소를 배제한 실험을 통해 뉴스 제목이 가장 중요한 요소 정보임을 확인하였다. 결과적으로 자극적인 제목으로 이목을 끌려는 가짜 뉴스의 속성을 정량적으로 확인할 수 있었다.

  • PDF

Keyphrase Extraction of Directive Utterances via Discourse Component: Construction and Data Augmentation of Korean Parallel Corpus (담화 성분을 활용한 지시 발화의 키프레이즈 추출: 한국어 병렬 코퍼스 구축 및 데이터 증강 방법론)

  • Cho, Won Ik;Moon, Young Ki;Kim, Jong In;Kim, Nam Soo
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.241-245
    • /
    • 2019
  • 문서 요약, 키프레이즈 추출과 패러프레이징은 인간이, 혹은 기계가 문서를 보다 원활히 이해하는 데에 도움을 주는 방법론들이다. 우리는 본 연구에서 질문/요구 등의 지시성 발화를 대상으로, 핵심 내용을 추출하는 간단한 방법론을 통해 한국어 병렬 코퍼스를 구축한다. 또한, 우리는 인적 자원을 활용한 효율적인 데이터 증강 전략을 통해 부족하거나 필수적인 유형의 발화의 양을 보강하고, 약 5만 쌍 크기의 코퍼스를 제작하여 이를 공개한다.

  • PDF

Conformer-based Elderly Speech Recognition using Feature Fusion Module (피쳐 퓨전 모듈을 이용한 콘포머 기반의 노인 음성 인식)

  • Minsik Lee;Jihie Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.39-43
    • /
    • 2023
  • 자동 음성 인식(Automatic Speech Recognition, ASR)은 컴퓨터가 인간의 음성을 텍스트로 변환하는 기술이다. 자동 음성 인식 시스템은 다양한 응용 분야에서 사용되며, 음성 명령 및 제어, 음성 검색, 텍스트 트랜스크립션, 자동 음성 번역 등 다양한 작업을 목적으로 한다. 자동 음성 인식의 노력에도 불구하고 노인 음성 인식(Elderly Speech Recognition, ESR)에 대한 어려움은 줄어들지 않고 있다. 본 연구는 노인 음성 인식에 콘포머(Conformer)와 피쳐 퓨전 모듈(Features Fusion Module, FFM)기반 노인 음성 인식 모델을 제안한다. 학습, 평가는 VOTE400(Voide Of The Elderly 400 Hours) 데이터셋으로 한다. 본 연구는 그동안 잘 이뤄지지 않았던 콘포머와 퓨전피쳐를 사용해 노인 음성 인식을 위한 딥러닝 모델을 제시하였다는데 큰 의미가 있다. 또한 콘포머 모델보다 높은 수준의 정확도를 보임으로써 노인 음성 인식을 위한 딥러닝 모델 연구에 기여했다.

  • PDF