• Title/Summary/Keyword: Extractive Summarization

Search Result 13, Processing Time 0.017 seconds

An Extractive Summarization System for Real-time Call Center Agent (실시간 콜센터 상담사 보조를 위한 주요 상담 발화 추출 요약 시스템)

  • Ian Jung;YongTaek Lee;Hyunmok Kim;Yongchol Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.53-58
    • /
    • 2022
  • 인공지능 기술이 발전하며, 다양한 산업군에 사람의 업무를 보조하는 인공지능 시스템이 적용되고 있다. 그 중 콜센터 상담사의 상담 업무를 보조하는 자연어 처리 기술 역시 활발히 연구되고 있는 분야 중 하나이다. 콜센터 상담사 보조 시스템은 상담사를 보조하기에 앞서 고객과 상담사의 대화로 진행되는 상담이 어떤 내용인지 정확히 인식해야 한다. 이때, 시스템이 상담의 목적을 대표할 수 있는 발화를 판별한다면 상담 내용을 보다 명확히 인식할 수 있다. 본 논문은 구어체로 진행되는 상담 스크립트의 특징을 주목하여, 실시간으로 상담 내용을 분석하고, 중요한 의미를 가지는 발화를 인지하여 추출하는 모델을 제안한다. 실험 결과, 제안한 모델이 기존 추출 요약과 비교하여, 우수한 성능을 보였다. 본 논문에 제안한 모델을 적용하여, 주요 상담 발화를 추출하고, 관련된 상담 문서 검색, 상담 내용 분류 등에 적용할 수 있다.

  • PDF

A Comparative Study on the Korean Text Extractive Summarization using Pre-trained Language Model (사전 학습 언어 모델을 이용한 한국어 문서 추출 요약 비교 분석)

  • Young-Rae Cho;Kwang-Hyun Baek;Min-Ji Park;Byung Hoon Park;Sooyeon Shin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.518-521
    • /
    • 2023
  • 오늘날 과도한 정보의 양 속에서 디지털 문서 내 중요한 정보를 효율적으로 획득하는 것은 비용 효율의 측면에서 중요한 요구사항이 되었다. 문서 요약은 자연어 처리의 한 분야로서 원본 문서의 핵심적인 정보를 유지하는 동시에 중요 문장을 추출 또는 생성하는 작업이다. 이 중 추출요약은 정보의 손실 및 잘못된 정보 생성의 가능성을 줄이고 요약 가능하다. 그러나 여러 토크나이저와 임베딩 모델 중 적절한 활용을 위한 비교가 미진한 상황이다. 본 논문에서는 한국어 사전학습된 추출 요약 언어 모델들을 선정하고 추가 데이터셋으로 학습하고 성능 평가를 실시하여 그 결과를 비교 분석하였다.

Method of Extracting the Topic Sentence Considering Sentence Importance based on ELMo Embedding (ELMo 임베딩 기반 문장 중요도를 고려한 중심 문장 추출 방법)

  • Kim, Eun Hee;Lim, Myung Jin;Shin, Ju Hyun
    • Smart Media Journal
    • /
    • v.10 no.1
    • /
    • pp.39-46
    • /
    • 2021
  • This study is about a method of extracting a summary from a news article in consideration of the importance of each sentence constituting the article. We propose a method of calculating sentence importance by extracting the probabilities of topic sentence, similarity with article title and other sentences, and sentence position as characteristics that affect sentence importance. At this time, a hypothesis is established that the Topic Sentence will have a characteristic distinct from the general sentence, and a deep learning-based classification model is trained to obtain a topic sentence probability value for the input sentence. Also, using the pre-learned ELMo language model, the similarity between sentences is calculated based on the sentence vector value reflecting the context information and extracted as sentence characteristics. The topic sentence classification performance of the LSTM and BERT models was 93% accurate, 96.22% recall, and 89.5% precision, resulting in high analysis results. As a result of calculating the importance of each sentence by combining the extracted sentence characteristics, it was confirmed that the performance of extracting the topic sentence was improved by about 10% compared to the existing TextRank algorithm.