• Title/Summary/Keyword: 언어 학습 모델

Search Result 841, Processing Time 0.023 seconds

Zero-shot Lexical Semantics based on Perplexity of Pretrained Language Models (사전학습 언어모델의 Perplexity에 기반한 Zero-shot 어휘 의미 모델)

  • Choi, Heyong-Jun;Na, Seung-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.473-475
    • /
    • 2021
  • 유의어 추천을 구현하기 위해서는 각 단어 사이의 유사도를 계산하는 것이 필수적이다. 하지만, 기존의 단어간 유사도를 계산하는 여러 방법들은 데이터셋에 등장하지 않은 단어에 대해 유사도를 계산 할 수 없다. 이 논문에서는 이를 해결하기 위해 언어모델의 PPL을 활용하여 단어간 유사도를 계산하였고, 이를 통해 유의어를 추천했을 때 MRR 41.31%의 성능을 확인했다.

  • PDF

Transfer Learning-based Multi-Modal Fusion Answer Selection Model for Video Question Answering System (비디오 질의 응답 시스템을 위한 전이 학습 기반의 멀티 모달 퓨전 정답 선택 모델)

  • Park, Gyu-Min;Park, Seung-Bae
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.548-553
    • /
    • 2021
  • 비디오 질의 응답은 입력으로 주어진 비디오와 질문에 적절할 정답을 제공하기 위해 텍스트, 이미지 등 다양한 정보처리가 요구되는 대표적인 multi-modal 문제이다. 질의 응답 시스템은 질의 응답의 성능을 높이기 위해 다수의 서로 다른 응답 모듈을 사용하기도 하며 생성된 정답 후보군 중 가장 적절할 정답을 선택하는 정답 선택 모듈이 필요하다. 정답 선택 모듈은 응답 모듈의 서로 다른 관점을 고려하여 응답 선택을 선택할 필요성이 있다. 하지만 응답 모듈이 black-box 모델인 경우 정답 선택 모듈은 응답 모듈의 parameter와 예측 분포를 통해 지식을 전달 받기 어렵다. 그리고 학습 데이터셋은 응답 모듈이 학습에 사용했기 때문에 과적합 문제로 각 모듈의 관점을 학습하기엔 어려우며 학습 데이터셋 이외 비교적 적은 데이터셋으로 학습해야 하는 문제점이 있다. 본 논문에서는 정답 선택 성능을 높이기 위해 전이 학습 기반의 멀티모달 퓨전 정답 선택 모델을 제안한다. DramaQA 데이터셋을 통해 성능을 측정하여 제안된 모델의 우수성을 실험적으로 증명하였다.

  • PDF

Multi-Decoder Conversational Model for Generating Robust Response Based on Denoising Mechanism (강건한 응답 생성을 위한 디노이징 메커니즘 기반 다중 디코더 대화 모델)

  • Kim, Tae-Hyeong;Park, Seong-Bae;Park, Se-Young
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.141-146
    • /
    • 2018
  • 최근 대화 모델 학습에는 시퀀스-투-시퀀스 모델이 널리 활용되고 있다. 하지만 기본적인 시퀀스-투-시퀀스 모델로 학습한 대화 모델은 I don't know 문제와 사오정 문제를 내포한다. I don't know 문제는 입력 발화에 대해 안전하고 무미건조한 단편적인 대답을 많이 생성하는 문제이다. 사오정 문제는 입력 발화에 대해 적절한 응답을 생성했지만 입력 발화와 동일한 의미를 지니지만 어순, 어미 등의 변화가 있는 발화에는 적절한 응답을 생성하지 못하는 문제이다. 이전 연구에서 디노이징 메커니즘을 활용하여 각각의 문제를 완화하는 대화 모델들을 학습할 수 있음을 보였으나 하나의 모델에서 두 문제를 동시에 해결하지는 못하였다. 본 논문에서는 디노이징 메커니즘을 활용하여 각각의 문제에 강점을 지닌 디코더들을 학습하고 응답 생성 시 입력 발화에 따라 두 디코더를 적절하게 반영하여 언급한 문제 모두에 대해 강건한 응답을 생성할 수 있는 모델을 제안한다. 제안하는 방법의 우수성을 보이기 위해 9만 건의 한국어 대화 데이터로 실험을 수행하였다. 실험 결과 단일 문제를 해결하는 모델들과 비교하여 ROUGE F1 점수와 사람이 평가한 정성 평가에서 성능 향상을 보였다.

  • PDF

Text Classification using Cloze Question based on KorBERT (KorBERT 기반 빈칸채우기 문제를 이용한 텍스트 분류)

  • Heo, Jeong;Lee, Hyung-Jik;Lim, Joon-Ho
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.486-489
    • /
    • 2021
  • 본 논문에서는 KorBERT 한국어 언어모델에 기반하여 텍스트 분류문제를 빈칸채우기 문제로 변환하고 빈칸에 적합한 어휘를 예측하는 방식의 프롬프트기반 분류모델에 대해서 소개한다. [CLS] 토큰을 이용한 헤드기반 분류와 프롬프트기반 분류는 사전학습의 NSP모델과 MLM모델의 특성을 반영한 것으로, 텍스트의 의미/구조적 분석과 의미적 추론으로 구분되는 텍스트 분류 태스크에서의 성능을 비교 평가하였다. 의미/구조적 분석 실험을 위해 KLUE의 의미유사도와 토픽분류 데이터셋을 이용하였고, 의미적 추론 실험을 위해서 KLUE의 자연어추론 데이터셋을 이용하였다. 실험을 통해, MLM모델의 특성을 반영한 프롬프트기반 텍스트 분류에서는 의미유사도와 토픽분류 태스크에서 우수한 성능을 보였고, NSP모델의 특성을 반영한 헤드기반 텍스트 분류에서는 자연어추론 태스크에서 우수한 성능을 보였다.

  • PDF

Restaurant Name Classification from Local Search Log using Deep Learning Model (딥러닝 모델을 활용한 로컬 검색로그에서 음식점 상호 판별)

  • Kim, Seongsoon;Park, Jihye;Eun, Zongzin;Kang, Inho
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.199-203
    • /
    • 2018
  • 음식과 맛집에 대한 사용자의 정보검색 니즈가 나날이 증가하면서 서비스 제공자가 정보 제공의 대상이 되는 맛집 상호명을 파악하는 것은 중요한 이슈다. 그러나 업종의 특성상 점포가 새로 생겨나는 주기는 매우 짧은 반면, 신규 점포의 서비스 등록 시점에는 시간적 차이가 존재하는 문제가 있다. 본 논문에서는 신규 상호명을 능동적으로 파악하기 위해 위치기반 서비스 로그에서 맛집 상호명을 추출하는 문자 기반의 딥러닝 모델 및 방법론을 제시한다. 자체 구축한 학습 데이터셋으로 실험한 결과, 제안하는 모델이 기존 기계학습 모델보다 높은 정확도로 상호명을 분류할 수 있음을 확인하였다. 또한, 사전 학습된 모델을 검색로그에 적용하여 신규 상호명 후보를 추출함으로써 향후 상호명 DB를 능동적으로 업데이트 할 수 있는 가능성을 타진하였다.

  • PDF

Improving Dialogue Intent Classification Performance with Uncertainty Quantification based OOD Detection (불확실성 정량화 기반 OOD 검출을 통한 대화 의도 분류 모델의 성능 향상)

  • Jong-Hun Shin;Yohan Lee;Oh-Woog Kwon;Young-Kil Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.517-520
    • /
    • 2022
  • 지능형 대화 시스템은 줄곧 서비스의 목표와 무관한 사용자 입력을 전달받아, 그 처리 성능을 의심받는다. 특히 종단간 대화 이해 생성 모델이나, 기계학습 기반 대화 이해 모델은 학습 시간대에 한정된 범위의 도메인 입력에만 노출됨으로, 사용자 발화를 자신이 처리 가능한 도메인으로 과신하는 경향이 있다. 본 연구에서는 대화 생성 모델이 처리할 수 없는 입력과 신뢰도가 낮은 생성 결과를 배제하기 위해 불확실성 정량화 기법을 대화 의도 분류 모델에 적용한다. 여러 번의 추론 샘플링이 필요 없는 실용적인 예측 신뢰도 획득 방법과 함께, 평가 시간대와 또다른 도메인으로 구성된 분포 외 입력 데이터를 학습에 노출시키는 것이 분포 외 입력을 구분하는데 도움이 되는지를 실험으로 확인한다.

  • PDF

Continuous Korean Named Entity Recognition Using Knowledge Distillation (지식증류를 활용한 지속적 한국어 개체명 인식 )

  • Junseo Jang;Seongsik Park;Harksoo Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.505-509
    • /
    • 2023
  • 개체명 인식은 주어진 텍스트에서 특정 유형의 개체들을 식별하고 추출하는 작업이다. 일반적인 딥러닝 기반 개체명 인식은 사전에 개체명들을 모두 정의한 뒤 모델을 학습한다. 하지만 실제 학습 환경에서는 지속적으로 새로운 개체명이 등장할 수 있을뿐더러 기존 개체명을 학습한 데이터가 접근이 불가할 수 있다. 또한, 새로 모델을 학습하기 위해 새로운 데이터에 기존 개체명을 수동 태깅하기엔 많은 시간과 비용이 든다. 해결 방안으로 여러 방법론이 제시되었지만 새로운 개체명을 학습하는 과정에서 기존 개체명 지식에 대한 망각 현상이 나타났다. 본 논문에서는 지식증류를 활용한 지속학습이 한국어 개체명 인식에서 기존 지식에 대한 망각을 줄이고 새로운 지식을 학습하는데 효과적임을 보인다. 국립국어원에서 제공한 개체명 인식 데이터로 실험과 평가를 진행하여 성능의 우수성을 보인다.

  • PDF

Korean Text Generation using Markov Chain for Korean Language Learning (한국어 학습을 위한 마르코프 체인 기반 한국어 문장 생성)

  • Moon, Kyungdeuk;Kim, Jeongwon;Kim, Sohee;Kim, Byeong Man;Lee, Hyunah
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.623-626
    • /
    • 2018
  • 한국어 학습에 대한 관심이 전 세계적으로 높아짐에 따라 한국어 학습을 위한 다양한 프로그램들이 등장하고 있다. 한국어가 모국어가 아닌 외국인들의 한국어 학습을 위해서는 단어 학습이 기초가 되어야 하며, 단어 학습에서는 다양한 예문들이 필수적이다. 기존의 학습 시스템에서는 말뭉치에 있는 문장들을 예문으로 제시하는 기능을 제공하지만, 이 경우 한정적이고 반복된 문장만을 제공하는 문제를 가진다. 본 논문에서는 사용자가 학습하고자 하는 단어를 입력하면 해당 단어 단어를 포함하는 한국어 문장을 자동 생성하여 제공하는 시스템을 제안한다. 시스템에서는 언어 모델의 제어가 비교적 쉬운 마르코프체인을 활용한다.

  • PDF

Educational Programming Language based Deep AI Yourself Hands-on Platform for Machine Learning (머신러닝 학습을 위한 교육용 프로그래밍 언어 기반 Deep AI Yourself 실습 플랫폼)

  • Lee, Se-Hoon;Bak, Jeong-Jun;Lee, Myeong-Sung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.243-244
    • /
    • 2020
  • 본 논문에서는 기존 AI 기능을 탑재한 교육용 프로그래밍 언어 기반의 서비스들의 문제점을 개선할 수 있는 머신러닝 학습을 위한 교육용 프로그래밍 언어 기반 실습 플랫폼을 제안한다. 이번 연구에서는 기존 교육용 프로그래밍 언어 기반 서비스의 대표주자인 Scratch 3.0과 Tensorflow를 접목하여 AI에 대한 높은 이해도를 가질 수 있도록 하는 학습 방향을 제시하고 Gray-Box 형태의 학습 모델 서비스를 구현한다.

  • PDF

Constructing Korean Dialogue Natural Inference Dataset through Pseudo Labeling (Pseudo Labeling을 통한 한국어 대화 추론 데이터셋 구축)

  • Young-Jun Lee;Chae-Gyun Lim;Yunsu Choi;Ji-Hui Lm;Ho-Jin Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.205-209
    • /
    • 2022
  • 페르소나 대화 시스템이 상대방의 개인화된 정보에 일관된 응답을 생성하는 것은 상당히 중요하며, 이를 해결하기 위해 최근에 많은 연구들이 활발히 이루어지고 있다. 그 중, PersonaChat 데이터셋에 대해 수반/중립/모순 관계를 라벨링한 DialoguNLI 데이터셋이 제안되었으며, 일관성 측정, 페르소나 속성 추론 태스크 등 여러 분야에 활용되고 있다. 그러나, 공개적으로 이용가능한 한국어로 된 대화 추론 데이터셋은 없다. 본 연구에서는 한국어로 번역된 페르소나 대화 데이터셋과 한국어 자연어 추론 데이터셋에 학습된 모델을 이용하여 한국어 대화 추론 데이터셋(KorDialogueNLI)를 구축한다. 또한, 사전학습된 언어모델을 학습하여 한국어 대화 추론 모델 베이스라인도 구축한다. 실험을 통해 정확도 및 F1 점수 평가 지표에서 KLUE-RoBERTa 모델을 미세조정(fine-tuning)시킨 모델이 가장 높은 성능을 달성하였다. 코드 및 데이터셋은 https://github.com/passing2961/KorDialogueNLI에 공개한다.

  • PDF