• Title/Summary/Keyword: 언어 융합

Search Result 551, Processing Time 0.032 seconds

A Study of Unit Testing Frameworks on Open Source C++ (오픈 소스 C++에서의 유닛 테스팅 프레임워크에 관한 고찰)

  • Heo, Seok-Yeol;Sohn, Young-Ho
    • Convergence Security Journal
    • /
    • v.13 no.4
    • /
    • pp.33-39
    • /
    • 2013
  • Unit testing is proved to be vital for a successful software development process. Modern languages, such as Python, Java and C#, have a great support and tools for unit testing. But when it comes to C++, there are a big number of C++ frameworks available [List], and it becomes hard to make a choice of unit testing framework to use. This paper presents a survey of open source C++ unit testing frameworks by dividing open source C++ unit testing frameworks into two groups: frameworks with an integrated test runner and frameworks with a separate test runner.

Text Visualization and Concordance Search Using Gutenberg Project Text Data (구텐베르그 프로젝트 텍스트 데이터를 활용한 시각화 및 용례 검색)

  • Kim, Dongsung;Shin, Yeonsu;Lee, Jian;Yu, Jimin
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.175-178
    • /
    • 2017
  • 본 연구는 거시적 빅데이터 인문학과 미시적 언어 텍스트 검색 시스템을 구축하고, 이를 통해서 언어를 통한 문화의 역동적 변화를 시간적 순서에 따라 살펴보고자 한다. 연구의 최종적인 목표는 문화도 생물체처럼 변화하는 존재라 여기고 그 구성요소들을 연구한다는 뜻인 '문화체학(文化體學; Culturomics)'과 같은 '인문학 + 정보과학 + 사회과학' 등등의 다학문간의 융합적 연구에 있다. 이 시스템을 통해서 인류 역사의 기록인 텍스트 빅데이터를 통한 인문학적 성찰을 시각화하고 있다. 이러한 구글의 업적은 인문학과 정보기술의 융합을 통해서 인문학 자체의 지평을 넓히고, 사회과학을 변형시키고, 산업과 상아탑 사이의 관계를 재조정하는데 있다[1].

  • PDF

Comparing the Performances of Intent Classifications by Encoder Layer (Encoder Layer를 이용한 의도 분류 성능 비교)

  • Ahn, Hyeok-Ju;Kim, Hye-Young
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.410-413
    • /
    • 2021
  • 본 논문에서는 분류 모델의 주류로 사용되고 있는 Encoder 기반 사전학습 모델(BERT, ALBERT, ELECTRA)의 내부 Encoder Layer가 하부 Layer에서는 Syntactic한 분석을 진행하고 상부 Layer로 갈수록 Semantic 한 분석을 진행하는 점, Layer가 구성됨에 따라 Semantic 정보가 Syntactic 정보를 개선해 나간다 점에 기반한 기존 연구 결과를 바탕으로 Encoder Layer를 구성함에 따라 어떻게 성능이 변화하는지 측정한다. 그리고 의도 분류를 위한 학습 데이터 셋도 분류하고자 하는 성격에 따라 Syntactic한 구성과 Semantic한 구성을 보인다는 점에 착안하여 ALBERT 및 ELECTRA를 이용한 의도 분류 모델을 구축하고 각 데이터 셋에 맞는 최적의 Encoder Layer 구성을 가지는 모델을 비교한 결과, 두 데이터 셋 간에 다른 Layer 구성을 보이는 점과 기존 모델보다 성능이 향상됨을 확인하였다.

  • PDF

Cross-Texting Prevention System using Korean Chat Corpus (한글 채팅 말뭉치를 이용한 크로스-텍스팅 방지 시스템)

  • Lee, Da-Young;Who, Hwan-Gue
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.377-382
    • /
    • 2020
  • cross-texting은 실수로 의도하지 않은 상대방에게 메세지를 잘못 전송하는 것을 말한다. 휴대폰 메신저 사용이 활발해짐에 따라 이 같은 실수가 빈번하게 발생하는데 메신저에서 제공하는 기능은 대체로 사후 해결책에 해당하고 사용자가 사전에 실수를 발견하기는 어렵다. 본 논문에서는 사용자가 작성한 문장의 형식적 자질를 분석하여 현재 참여중인 대화에서 작성한 문장이 cross-texting인지를 판별하는 모델을 제안했다. 문장에서 높임법, 표층적 완성도 자질을 추출하고 이를 통해 특정 사용자의 대화를 모델링하여 주어진 문장이 대화에 부합하는지 여부를 판단한다. 이같은 방식은 채팅방의 이전 기록만으로도 사용자가 작성한 문장이 cross-texting인지 여부를 쉽게 판단할 수 있는 힌트를 제공할 수 있다. 실제 메신저 대화 말뭉치를 이용해 제작한 데이터에서 94% 정확도로 cross-texting을 탐지했다.

  • PDF

Factual consistency checker through a question-answer test based on the named entity (개체명 기반 질문-답변 검사를 통한 요약문 사실관계 확인)

  • Jung, Jeesu;Ryu, Hwijung;Chang, Dusung;Chung, Riwoo;Jung, Sangkeun
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.112-117
    • /
    • 2021
  • 기계 학습을 활용하여 요약문을 생성했을 경우, 해당 요약문의 정확도를 측정할 수 있는 도구는 필수적이다. 원문에 대한 요약문의 사실관계 일관성의 파악을 위해 개체명 유사도, 기계 독해를 이용한 질문-답변 생성을 활용한 방법이 시도되었으나, 충분한 데이터 확보가 필요하거나 정확도가 부족하였다. 본 논문은 딥러닝 모델을 기반한 개체명 인식기와 질문-답변쌍 정확도 측정기를 활용하여 생성, 필터링한 질문-답변 쌍에 대해 일치도를 점수화하는 방법을 제안하였다. 이러한 기계적 사실관계 확인 점수와 사람의 평가 점수의 분포를 비교하여 방법의 타당성을 입증하였다.

  • PDF

Exploiting Features of Writer's Intent in Automatic Spacing (자동 띄어쓰기에서 글쓴이 의도를 반영한 자질의 활용)

  • Lee, Jeong-wook;Kim, Jae-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.528-531
    • /
    • 2021
  • 띄어쓰기에 대한 오류는 한국어 처리 전반에 영향을 주므로 자동 띄어쓰기는 필수적인 요소이다. 글쓴이의 대부분은 띄어쓰기 오류를 범하지 않으므로 글쓴이의 의도가 띄어쓰기 시스템에 반영되어야 한다. 그러나 대부분의 자동 띄어쓰기 시스템은 모든 띄어쓰기 정보를 제거하고 새로이 공백문자를 추가하는 방법으로 띄어쓰기를 수행한다. 이런 문제를 완화하기 위해서 본 논문에서는 기계학습에서 글쓴이의 의도가 반영된 자질을 추가하는 방법을 제안한다. 실험을 위해서 CRFs(Conditional Random Fields)를 사용하여 기존 시스템과 사용자의 의도를 반영한 띄어쓰기 시스템과의 성능을 비교하고 분석한다.

  • PDF

Viterbi Morpheme Restoration in Korean (한국어에서 Viterbi 형태소 복원)

  • Lee, Je-seung;Kim, Jae-hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.536-539
    • /
    • 2021
  • 본 논문은 한국어에서 형태소 복원을 위한 새로운 방법을 제안한다. 일반적으로 기계학습 기반 형태소 분석에서 형태소 복원은 기분석 사전과 약간의 경험규칙을 이용한다. 이와 같은 방법은 모호성을 해결하기 위해 사전에 모든 정보를 저장하는 것이 불가능할 뿐 아니라 단음절 이형태의 모호성을 해결할 수 없을 것이다. 이러한 문제를 완화하기 위해 본 논문에서는 생성된 모호성을 Viterbi 알고리즘을 이용해서 해소한다. 본 논문의 형태소 복원 과정은 기본적으로 기분석 사전과 약간의 경험규칙을 이용하여 형태소 복원 후보를 찾고 여러 후보가 있을 경우(모호성의 생성), 그 결과를 Viterbi 알고리즘으로 이형태를 결정한다. 실험을 위해 모두의 말뭉치(형태 분석)를 사용하고, 평가는 NER 방식으로 평가한다. 그 결과 품사 부착에 대해 96.28%정도의 성능을 보여주었다.

  • PDF

SINABULO: pronunciation correction program to improve delayed speech development (시나브로: 언어발달지연 개선을 위한 발음 교정 프로그램)

  • Chaerin Kang;Yeonghyeon Lee;Min Gyo Chung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.757-758
    • /
    • 2023
  • 시나브로는 언어발달지연 개선을 목적으로 발음을 교정하는 프로그램이다. TTS·STT API 를 사용하여 단어의 표준 발음을 음성 자료로 게시하고, 연습 후 사용자가 녹음한 음성에 대해 텍스트 및 시각 자료를 제공한다. 이를 통해 사용자는 자신의 발화 발음에 대해 객관적으로 피드백을 받아들일 수 있다. 시나브로는 전문기관 방문을 동반하는 일반적인 치료 방식과 달리, 온라인 기반 웹 서비스로 제작되어 공간, 시간, 비용 등의 제약을 극복하며 높은 접근성을 제공한다.

Domain-Adaptive Pre-training for Korean Document Summarization (도메인 적응 사전 훈련 (Domain-Adaptive Pre-training, DAPT) 한국어 문서 요약)

  • Hyungkuk Jang;Hyuncheol, Jang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.843-845
    • /
    • 2024
  • 도메인 적응 사전 훈련(Domain-Adaptive Pre-training, DAPT)을 활용한 한국어 문서 요약 연구에서는 특정 도메인의 문서에 대한 이해도와 요약 성능을 향상시키기 위해 DAPT 기법을 적용했다. 이 연구는 사전 훈련된 언어 모델이 일반적인 언어 이해 능력을 넘어 특정 도메인에 최적화된 성능을 발휘할 수 있도록 도메인 특화 데이터셋을 사용하여 추가적인 사전 훈련을 진행한다. 구체적으로, 의료, 법률, 기술 등 다양한 도메인에서 수집한 한국어 텍스트 데이터를 이용하여 모델을 미세 조정하며, 이를 통해 얻은 모델은 도메인에 특화된 용어와 문맥을 효과적으로 처리할 수 있음을 보여준다. 성능 평가에서는 기존 사전 훈련 모델과 DAPT를 적용한 모델을 비교하여 DAPT의 효과를 검증했다. 연구 결과, DAPT를 적용한 모델은 도메인 특화 문서 요약 작업에서 성능 향상을 보였으며, 이는 실제 도메인별 활용에서도 유용할 것으로 기대된다.

Comparative Study of Sentiment Analysis Model based on Korean Linguistic Characteristics (한국어 언어학적 특성 기반 감성분석 모델 비교 분석)

  • Kim, Gyeong-Min;Park, Chanjun;Jo, Jaechoon;Lim, Heui-Seok
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.149-152
    • /
    • 2019
  • 감성분석이란 입력된 텍스트의 감성을 분류하는 자연어처리의 한 분야로, 최근 CNN, RNN, Transformer등의 딥러닝 기법을 적용한 다양한 연구가 있다. 한국어 감성분석을 진행하기 위해서는 형태소, 음절 등의 추가 자질을 활용하는 것이 효과적이며 성능 향상을 기대할 수 있는 방법이다. 모델 생성에 있어서 아키텍쳐 구성도 중요하지만 문맥에 따른 언어를 컴퓨터가 표현할 수 있는 지식 표현 체계 구성도 상당히 중요하다. 이러한 맥락에서 BERT모델은 문맥을 완전한 양방향으로 이해할 수있는 Language Representation 기반 모델이다. 본 논문에서는 최근 CNN, RNN이 융합된 모델과 Transformer 기반의 한국어 KoBERT 모델에 대해 감성분석 task에서 다양한 성능비교를 진행했다. 성능분석 결과 어절단위 한국어 KoBERT모델에서 90.50%의 성능을 보여주었다.

  • PDF