• Title/Summary/Keyword: 학습 한국어

Search Result 1,340, Processing Time 0.035 seconds

Neural Architecture Search for Korean Text Classification (한국어 문서 분류를 위한 신경망 구조 탐색)

  • ByoungKyu Ji
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.125-130
    • /
    • 2023
  • 최근 심층 신경망을 활용한 한국어 자연어 처리에 대한 관심이 높아지고 있지만, 한국어 자연어 처리에 적합한 신경망 구조 탐색에 대한 연구는 이뤄지지 않았다. 본 논문에서는 문서 분류 정확도를 보상으로 하는 강화 학습 알고리즘을 이용하여 장단기 기억 신경망으로 한국어 문서 분류에 적합한 심층 신경망 구조를 탐색하였으며, 탐색을 위해 사전 학습한 한국어 임베딩 성능과 탐색한 신경망 구조를 분석하였다. 탐색을 통해 찾아낸 신경망 구조는 기존 한국어 자연어 처리 모델에 대해 4 가지 한국어 문서 분류 과제로 비교하였을 때 일반적으로 성능이 우수하고 모델의 크기가 작아 효율적이었다.

  • PDF

A Study on the Evaluation Method of Korean Comprehension Abilities of Large Language Model (대규모 언어모델의 한국어 이해 능력 평가 방법에 관한 연구)

  • Ki Jun Son;Seung Hyun Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.733-736
    • /
    • 2024
  • 최근 GTP4, LLama와 같은 초거대 언어모델을 활용한 서비스가 공개되어 많은 사람의 주목을 받고 있다. 해당 모델들은 사용자들의 다양한 질문에 대하여 유창한 결과를 생성하고 있지만 한국어 데이터에 대한 학습량이 부족하여 한국어 이해 및 한국 문화 등에 대한 잘못된 정보를 제공하는 문제를 야기할 수 있다. 이에 본 논문에서는 한국어 데이터를 학습한 주요 공개 모델 6개를 선정하고 5개 분야(한국어 이해 및 문화 영역으로 구성)에 대한 평가 데이터셋을 구성하여 한국어 이해 능력에 대한 평가를 진행하였다. 그 결과 한국어 구사 능력은 Bookworm 모델이, 한국어 이해 및 문화와 관련한 부문은 LDCC-SOLAR 모델이 우수한 것으로 확인할 수 있었다.

Development of Language-Learning Courseware in Korean Environments (한글 환경에서의 언어 교육 시스템 개발)

  • Kim, Hae-Gyung;Yoon, Ae-Sun;Lee, Mi-Hwa
    • Annual Conference on Human and Language Technology
    • /
    • 1998.10c
    • /
    • pp.335-340
    • /
    • 1998
  • 최근 컴퓨터 통신 기술의 발달로 인하여 교육분야에서의 컴퓨터 통신망을 이용한 학습의 효율성 증대에 대한 연구가 활발하다. 지금까지의 학습 방식은 교과목 특성의 개별성을 인식하지 못하거나 혹은 기술적인 문제점 등으로 인하여 학습자들에게 일관된 단답형이나 선다형의 학습 방식을 요구하여 왔다. 웹을 기반으로 한 원격 교육으로의 활용 측면에서 프랑스어와 같은 제2외국어의 경우, 한국어 환경에서의 프랑스어 악상 문자 입력이나 개별화된 저작 언어 개발 등의 문제점이 제기된다. $\lceil$Voila-web$\rfloor$ 은 한국어를 모국어로 하는 프랑스어 학습자들을 위한 교육 시스템으로 개별 교과목의 특성을 반영하고 능동적인 학습 방식을 통한 학습의 효율성 증대를 위한 시스템이다. 학습자들에게는 학습 자료의 전체적인 내용 흐름만을 제시하고 영역별 구체적인 자료의 전개는 다양한 교과 내용을 자유 항해할 수 있도록 설계되어 있다. 이는 학습자들로 하여금 통신망을 통한 컴퓨터 이용 학습의 장점을 기존의 학습 방식에 보완하여 보다 능동적인 학습 방식을 유도하여 학습의 효율성을 증대시킬 수 있다.

  • PDF

Korean Dialogue Modeling using MTRNN (MTRNN을 이용한 한국어 대화 모델 생성)

  • Shin, Chang-Uk;Cha, Jeong-Won
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.285-287
    • /
    • 2017
  • 본 논문에서는 Multi-layer sequence-to-sequence 구조를 이용해 한국어 대화 시스템을 개발하였다. sequence-to-sequence는 RNN 혹은 그 변형 네트워크에 데이터를 입력하고, 입력이 완료된 후의 은닉층의 embedding에 기반해 출력열을 생성한다. 우리는 sequence-to-sequence로 입력된 발화에 대해 출력 발화를 내어주는 대화 모델을 학습하였고, 그 성능을 측정하였다. RNN에 대해서는 약 80만 발화를, MTRNN에 대해서는 5만 발화를 학습하고 평가하였다. 모델의 결과로 나타난 발화들을 정리하고 분석하였다.

  • PDF

Android Based Korean Education Application for Foreigners (외국인을 위한 안드로이드 기반 한국어 교육 애플리케이션)

  • Choi, Sun-A;Lee, Hwa-Min
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.1480-1483
    • /
    • 2011
  • 스마트 기기 사용자가 급증하면서 애플리케이션의 수도 급격히 많아지고 있다. 다양한 종류의 교육용 애플리케이션이 많이 개발되어 졌지만 외국인을 위한 한국어 교육 애플리케이션의 수는 매우 적다. 이에 본 논문은 외국인 사용자가 한국어를 학습할 수 있는 애플리케이션을 설계 구현하였다. 한국어 어휘능력이 부족한 외국인을 주 대상으로 단어와 예문 및 시각적인 요소인 이미지와 청각적인 요소인 듣기를 결합하여 학습 효과를 극대화시킴으로써 효과적인 어휘능력의 향상을 목표로 구현하였다.

Word Embedding using word position information (단어의 위치정보를 이용한 Word Embedding)

  • Hwang, Hyunsun;Lee, Changki;Jang, HyunKi;Kang, Dongho
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

Modelling Foreign Language Learning Courseware for Korean Speakers (한국어 화자를 위한 외국어 학습 코스웨어의 모델링)

  • Yoon, Ae-Sun;Kim, Kyung-Hee
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.418-425
    • /
    • 1999
  • 한국어 화자를 위한 외국어 학습 코스웨어를 학습 목표언어 독립적으로 모델링하는 방안을 모색하기 위한 외국어 학습 이론과 웹상의 자료 제시 유형에 관해 논하고 기개발된 플랫폼 LangEdu를 살펴봄으로써 그 실현 가능성을 증명하고 있다. 체계적인 학습 자료 제시와 사용자간의 긴밀한 상호 작용 및 손쉬운 관리가 가능하도록 설계되어진 이 플랫폼을 이용하면 전산 전문 지식이 없는 교과 전문가가 큰 어려움이 없이 개별 외국어 학습 코스웨어를 제작할 수 있다. 따라서, 이 방법론은 비용효과적일 뿐만 아니라 교과전문가의 적극적인 참여를 유도하여 양질의 코스웨어 제작에 기여한다.

  • PDF

Constructing Korean Named Recognition Dataset for Financial Domain Using Active Learning (능동 학습 기법을 활용한 한국어 금융 도메인 개체명 인식 데이터 구축)

  • Jeong, Dong-Ho;Heo, Min-Kang;Kim, Hyung-Chul;Park, Sang-Won
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.82-86
    • /
    • 2020
  • 딥러닝 모델의 성능은 데이터의 품질과 양에 의해 향상된다. 그러나 데이터 구축은 많은 비용과 시간을 요구한다. 특히 전문 도메인의 데이터를 구축할 경우 도메인 지식을 갖춘 작업자를 활용할 비용과 시간이 더욱 제약적이다. 능동 학습 기법은 최소한의 데이터 구축으로 모델의 성능을 효율적으로 상승시키기 위한 방법이다. 다양한 데이터셋이 능동 학습 기법으로 구축된 바 있으나, 아직 전문 도메인의 한국어 데이터를 구축하는 연구는 활발히 수행되지 못한 것이 현실이다. 본 논문에서는 능동학습기법을 통해 금융 도메인의 개체명 인식 코퍼스를 구축하였고, 이를 통해 다음의 기여가 있다: (1) 금융 도메인 개체명 인식 코퍼스 구축에 능동 학습 기법이 효과적임을 확인하였고, (2) 이를 통해 금융 도메인 개체명 인식기를 개발하였다. 본 논문이 제안하는 방법을 통해 8,043문장 데이터를 구축하였고, 개체명 인식기의 성능은 80.84%로 달성되었다. 또한 본 논문이 제안하는 방법을 통해 약 12~25%의 예산 절감 효과가 있음을 실험으로 보였다.

  • PDF

Korean Named Entity Recognition based on ELECTRA with CRFs (ELECTRA-CRFs 기반 한국어 개체명 인식기)

  • Hong, Jiyeon;Kim, Hyunwoo J
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.473-476
    • /
    • 2020
  • 개체명 인식에 적용된 대부분의 신경망 모델들에서 CRFs와 결합을 통해 성능 향상을 하였다. 그러나 최근 대용량 데이터로 사전 학습한 모델을 활용하는 경우, 기 학습된 많은 유의미한 파라미터들로 인해 CRFs의 영향력이 비교적 작아졌다. 따라서 본 논문에서는 한국어 대용량 말뭉치로 사전 학습한 ELECTRA 모델에서의 CRFs 가 개체명 인식에 미치는 영향을 확인해보고자 한다. 모델의 입력 단위로 음절 단위와 Wordpiece 단위로 사전 학습된 두 가지의 모델을 사용하여 미세 조정을 통해 개체명 인식을 학습하였다. 실험을 통해서 두 모델에 대하여 각각 CRFs 층의 유무에 따른 성능을 비교해 보았다. 그 결과로 ELECTRA 기반으로 사전 학습된 모델에서 CRFs를 통한 F1-점수 향상을 보였다.

  • PDF

Context Based Real-time Korean Writing Correction for Foreigners (외국인 학습자를 위한 문맥 기반 실시간 국어 문장 교정)

  • Park, Young-Keun;Kim, Jae-Min;Lee, Seong-Dong;Lee, Hyun Ah
    • Journal of KIISE
    • /
    • v.44 no.10
    • /
    • pp.1087-1093
    • /
    • 2017
  • Educating foreigners in Korean language is attracting increasing attention with the growing number of foreigners who want to learn Korean or want to reside in Korea. Existing spell checkers mostly focus on native Korean speakers, so they are inappropriate for foreigners. In this paper, we propose a correction method for the Korean language that reflects the contextual characteristics of Korean and writing characteristics of foreigners. Our method can extract frequently used expressions by Koreans by constructing syllable reverse-index for eojeol bi-gram extracted from corpus as correction candidates, and generate ranked Korean corrections for foreigners with upgraded edit distance calculation. Our system provides a user interface based on keyboard hooking, so a user can easily use the correction system along with other applications. Our system improves the detection rate for foreign language users by about 45% compared to other systems in foreign language writing environments. This will help foreign users to judge and correct their own writing errors.