• Title/Summary/Keyword: 발화 생성

Search Result 139, Processing Time 0.024 seconds

KMSS: Korean Media Script Dataset for Dialogue Summarization (대화 요약 생성을 위한 한국어 방송 대본 데이터셋 )

  • Bong-Su Kim;Hye-Jin Jun;Hyun-Kyu Jeon;Hye-in Jung;Jung-Hoon Jang
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.198-204
    • /
    • 2022
  • 대화 요약은 다중 발화자와 발화문으로 이루어진 멀티턴 형식의 문서에 대해 핵심내용을 추출하거나 생성하는 태스크이다. 대화 요약 모델은 추천, 대화 시스템 등에 콘텐츠, 서비스 기록에 대한 분석을 제공하는 데 유용하다. 하지만 모델 구축에 필요한 한국어 대화 요약 데이터셋에 대한 연구는 부족한 실정이다. 본 논문에서는 생성 기반 대화 요약을 위한 데이터셋을 제안한다. 이를 위해 국내 방송사의 대용량 콘텐츠로 부터 원천 데이터를 수집하고, 주석자가 수작업으로 레이블링 하였다. 구축된 데이터셋 규모는 6개 카테고리에 대해 약 100K이며, 요약문은 단문장, 세문장, 2할문장으로 구분되어 레이블링 되었다. 또한 본 논문에서는 데이터의 특성을 내재화하고 통제할 수 있도록 대화 요약 레이블링 가이드를 제안한다. 이를 기준으로 모델 적합성 검증에 사용될 디코딩 모델 구조를 선정한다. 실험을 통해 구축된 데이터의 몇가지 특성을 조명하고, 후속 연구를 위한 벤치마크 성능을 제시한다. 데이터와 모델은 aihub.or.kr에 배포 되었다.

  • PDF

Perceptual cues for /o/ and /u/ in Seoul Korean (서울말 /?/와 /?/의 지각특성)

  • Byun, Hi-Gyung
    • Phonetics and Speech Sciences
    • /
    • v.12 no.3
    • /
    • pp.1-14
    • /
    • 2020
  • Previous studies have confirmed that /o/ and /u/ in Seoul Korean are undergoing a merger in the F1/F2 space, especially for female speakers. As a substitute parameter for formants, it is reported that female speakers use phonation (H1-H2) differences to distinguish /o/ from /u/. This study aimed to explore whether H1-H2 values are being used as perceptual cues for /o/-/u/. A perception test was conducted with 35 college students using /o/ and /u/ spoken by 41 females, which overlap considerably in the vowel space. An acoustic analysis of 182 stimuli was also conducted to see if there is any correspondence between production and perception. The identification rate was 89% on average, 86% for /o/, and 91% for /u/. The results confirmed that when /o/ and /u/ cannot be distinguished in the F1/F2 space because they are too close, H1-H2 differences contribute significantly to the separation of the two vowels. However, in perception, this was not the case. H1-H2 values were not significantly involved in the identification process, and the formants (especially F2) were still dominant cues. The study also showed that even though H1-H2 differences are apparent in females' production, males do not use H1-H2 in their production, and both females and males do not use H1-H2 in their perception. It is presumed that H1-H2 has not yet been developed as a perceptual cue for /o/ and /u/.

Reference-based Utterance Generation Model using Multi-turn Dialogue (멀티턴 대화를 활용한 레퍼런스 기반의 발화 생성 모델)

  • Sangmin Park;Yuri Son;Bitna Keum;Hongjin Kim;Harksoo Kim;Jaieun Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.88-91
    • /
    • 2022
  • 디지털 휴먼, 민원 상담, ARS 등 칫챗의 활용과 수요가 증가함에 따라 칫챗의 성능 향상을 위한 다양한 연구가 진행되고 있다. 특히, 오토 인코더(Auto-encoder) 기반의 생성 모델(Generative Model)은 높은 성능을 보이며 지속적인 연구가 이루어지고 있으나, 이전 대화들에 대한 충분한 문맥 정보의 반영이 어렵고 문법적으로 부적절한 답변을 생성하는 문제가 있다. 이를 개선하기 위해 검색 기반의 생성 모델과 관련된 연구가 진행되고 있으나, 현재 시점의 문장이 유사해도 이전 문장들에 따라 의도와 답변이 달라지는 멀티턴 대화 특징을 반영하여 대화를 검색하는 연구가 부족하다. 본 논문에서는 이와 같은 멀티턴 대화의 특징이 고려된 검색 방법을 제안하고 검색된 레퍼런스(준정답 문장)를 멀티턴 대화와 함께 생성 모델의 입력으로 활용하여 학습시키는 방안을 제안한다. 제안 방안으로 학습된 발화 생성 모델은 기존 모델과 비교 평가를 수행하며 Rouge-1 스코어에서 13.11점, Rouge-2 스코어에서 10.09점 Rouge-L 스코어에서 13.2점 향상된 성능을 보였고 이를 통해 제안 방안의 우수성을 입증하였다.

  • PDF

A Machine Learning based Method for Measuring Inter-utterance Similarity for Example-based Chatbot (예제 기반 챗봇을 위한 기계 학습 기반의 발화 간 유사도 측정 방법)

  • Yang, Min-Chul;Lee, Yeon-Su;Rim, Hae-Chang
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.11 no.8
    • /
    • pp.3021-3027
    • /
    • 2010
  • Example-based chatBot generates a response to user's utterance by searching the most similar utterance in a collection of dialogue examples. Though finding an appropriate example is very important as it is closely related to a response quality, few studies have reported regarding what features should be considered and how to use the features for similar utterance searching. In this paper, we propose a machine learning framework which uses various linguistic features. Experimental results show that simultaneously using both semantic features and lexical features significantly improves the performance, compared to conventional approaches, in terms of 1) the utilization of example database, 2) precision of example matching, and 3) the quality of responses.

IP generating factors and rules of read speech and dialogue in Korean (대화체와 낭독체의 억양구 형성에 관한 연구)

  • Park Jihye
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.285-288
    • /
    • 2002
  • 본 논문에서는 발화 유형을 대화체와 낭독체의 두 가지로 구분하여 각 발화 유형에서 억양구를 형성하는 특징을 살펴보았다. 실험 결과, 한 문장 내에 두 개 이상의 억양구가 생성되는 경우와 접속문의 경우에는 낭독체에서 더 많은 억양구가 형성되었다. 대화체에서 더 많은 억양구가 형성되는 경우는 주로 주어 다음에 억양구가 형성되는 경우이며, 대화체 발화에서는 한 문장내에 두 개 이상의 억양구가 형성된 경우는 존재하지 않았다. 이러한 실험 결과를 바탕으로 억양구의 형성이 음절수뿐만 아니라 문장의 구조에 영향을 받으며, 이 두 가지 요인이 발화 유형에 따라 다르게 적용된다는 운율적 특징을 파악할 수 있다.

  • PDF

A Method for Extracting Persona Triples in Dialogue (발화 내 페르소나 트리플 추출 방법 연구)

  • Yoonna Jang;Kisu Yang;Yuna Hur;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.726-729
    • /
    • 2023
  • 본 논문에서는 대화 중 발화에서 페르소나 트리플을 추출하는 방법을 연구한다. 발화 문장과 그에 해당하는 트리플 쌍을 활용하여 발화 문장 혹은 페르소나 문장이 주어졌을 때 그로부터 페르소나 트리플을 추출하도록 모델을 멀티 태스크 러닝 방식으로 학습시킨다. 모델은 인코더-디코더 구조를 갖는 사전학습 언어모델 BART [1]와 T5 [2]를 활용하며 relation 추출과 tail 추출의 두 가지 태스크를 각각 인코더, 디코더 위에 head를 추가하여 학습한다. Relation 추출은 분류로, tail 추출은 생성 문제로 접근하도록 하여 최종적으로 head, relation, tail의 구조를 갖는 페르소나 트리플을 추출하도록 한다. 실험에서는 BART와 T5를 활용하여 각 태스크에 대해 다른 학습 가중치를 두어 훈련시켰고, 두 모델 모두 relation과 tail을 추출하는 태스크 정확도에 있어서 90% 이상의 높은 점수를 보임을 확인했다.

  • PDF

Application of Meaning Base for Car Navigation System (카네비게이션 시스템을 위한 의미베이스의 활용)

  • 장문수
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.09b
    • /
    • pp.17-20
    • /
    • 2003
  • 언어는 인간의 지적 활동의 가장 근본적인 도구이다. 컴퓨팅에 있어서도 특히, 인간의 지적 활동을 모방하는 경우에 언어를 통한 컴퓨팅이 효과적일 수 있다. 의미베이스는 시스템 기능문법(SFLT)을 기반으로 한 인간 사고의 모델링으로 언어기반 컴퓨팅의 도구로 이용될 수 있다 본 논문에서는 카네비게이션 시스템을 예로 들어 언어를 매개로 한 지적 컴퓨팅에 관한 아이디어를 제시한다. 의미베이스의 계층은 컨텍스트, 의미, 어휘문법으로 나뉘고, 각 계층은 시스템, 서브시스템, 인스턴스로 세분된다 본 논문에서는 카네비게이션의 컨텍스트를 정의하고, 이것을 바탕으로 의미층에서 의미를 생성함을 보인다 그리고, 제시한 의미베이스 안에서 대화를 분석 및 생성하는 과정을 통해 컴퓨팅이 이루어질 수 있음을 예를 통하여 보인다.

  • PDF

Study of Burned Body at a standpoint of Combustion (연소적 측면에서의 소사체에 대한 고찰)

  • Lee, S.H.;Park, J.T.;Park, Y.K.
    • Congress of the korean instutite of fire investigation
    • /
    • 2010.06a
    • /
    • pp.82-89
    • /
    • 2010
  • 화재조사에 있어서 화재현장에서 발견되는 피해자들의 소사체는 사망원인을 밝히는 법의학적 측면에서 매우 중요하지만 현장에서 연료로 작용하여 발화부를 추적하는 화재패턴에 영향을 미칠 수 있으므로 연소적인 측면에서 소사체를 가연물로서 고려해볼 필요가 있다. 화재는 가연물의 열량과 분포에 따라서 그 화재패턴 또한 다르게 생성된다. 인체의 구성요소는 대부분 가연물이며 특히 동물성지방은 과거 등불의 연료로 사용되었을 만큼 가연성과 열량이 높다. 본 논문에서는 인체의 지방을 대신하여 돼지의 동물성지방의 연소적 특성을 고찰하였으며, 그 특성은 고체연료인 파라핀과 대동소이하여 화재현장의 분위기에 따라서 때로는 바닥에 액체가연물에 의한 패턴을 생성시킬 수 있고 가연물지배에 의한 연소로 사체 중심의 화재패턴을 생성할 수 있어 화재패턴을 통한 발화부의 판단에 혼란을 초래할 가능성이 매우 높으며 이러한 가능성은 실제 사례에서도 확인할 수 있었다. 화재사체의 연소적인 특성을 이해하는 것은 사체가 연관된 화재현장에서 화재패턴을 해석하는데 있어서 많은 도움이 될 것이며 경우에 따라서는 필수적인 요소가 될 것으로 사료된다.

  • PDF

Building a Corpus for Korean Tutoring Chatbot (한국어 튜터링 챗봇을 위한 말뭉치 구축)

  • Kim, Hansaem;Choi, Kyung-Ho;Han, Ji-Yoon;Jung, Hae-Young;Kwak, Yong-Jin
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.288-293
    • /
    • 2017
  • 교수-학습 발화는 발화 턴 간에 규칙화된 인과관계가 강하고 자연 발화에서의 출현율이 낮다. 일반적으로 어휘부, 표현 제시부, 대화부로 구성되며 커리큘럼과 화제에 따라 구축된 언어자원이 필요하다. 기존의 말뭉치는 이러한 교수-학습 발화의 특징을 반영하지 않았기 때문에 한국어 교육용 튜터링 챗봇을 개발하는데에 활용도가 떨어진다. 이에 따라 이 논문에서는 자연스러운 언어 사용 수집, 도구 기반의 수집, 주제별 수집 및 분류, 점진적 구축 절차의 원칙에 따라 교수-학습의 실제 상황을 반영하는 준구어 말뭉치를 구축한다. 교실에서 발생하는 언어학습 상황을 시나리오로 구성하여 대화 흐름을 제어하고 채팅용 메신저와 유사한 형태의 도구를 통해 말뭉치를 구축한다. 이 연구는 한국어 튜터링 챗봇을 개발하기 위해 말뭉치 구축용 챗봇과 한국어 학습자, 한국어 교수자가 시나리오를 기반으로 발화문을 생성한 준구어 말뭉치를 최초로 구축한다는 데에 의의가 있다.

  • PDF

Speaker classification and prediction with language model (언어모델을 활용한 문서 내 발화자 예측 분류 모델)

  • Kim, Gyeongmin;Han, Seunggyu;Seo, Jaehyung;Lee, Chanhee;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.317-320
    • /
    • 2020
  • 연설문은 구어체와 문어체 두 가지 특성을 모두 갖고 있는 복합적인 데이터 형태이다. 발화자의 문장 표현, 배열, 그리고 결합에 따라 그 구조가 다르기 때문에, 화자 별 갖는 문체적 특성 또한 모두 다르다. 국정을 다루는 정치인들의 연설문은 국정 현황을 포함한 다양한 주요 문제점을 다룬다. 그러면 발화자의 문서 내 문체적 특성을 고려할 경우, 해당 문서가 어느 정치인의 연설문인지 파악 할 수 있는가? 본 연구에서는 대한민국 정책 브리핑 사이트로부터 한국어 기반 사전 학습된 언어 모델을 활용하여 연설문에 대한 미세조정을 진행함으로써 발화자 예측 분류 모델을 생성하고, 그 가능성을 입증하고자 한다. 본 연구는 5-cross validation으로 모델 성능을 평가하였고 KoBERT, KoGPT2 모델에서 각각 90.22%, 84.41% 정확도를 보였다.

  • PDF