• Title/Summary/Keyword: 한글 학습

Search Result 879, Processing Time 0.024 seconds

Development of Algorithm for Online Handwriting Hangul Recognition (온라인 한글 필기 인식 알고리즘 개발)

  • Jeong, Dabin;Lee, Kang Eun;Jeong, Min Jin;Moon, Changjin;Kim, Sungsuk;Kim, Jaehyun;Yang, Sun Ok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.1000-1003
    • /
    • 2020
  • 본 논문은 기계학습 기반 온라인 한글 필기 인식 시스템의 첫 구현 결과를 담고 있다. 한글의 글자는 최소한 하나의 모음을 포함하고 있으며, 이 모음은 대개 직선으로 필기한다는 사전 지식을 활용하여 인식에 적용하고자 한다. 이를 위해 사용자가 온라인으로 필기하면 획 데이터를 획득하여 중성에 해당하는 모음을 찾는 알고리즘을 개발하였다. 제안한 알고리즘에서는, 우선 필기한 글자를 포함하는 사각형 R과 각 획을 둘러싸는 사각형 SR을 생성한 후, 직선을 판별하고, 이 직선들이 모음을 구성하는 후보군을 찾는 과정으로 구성되어 있다. 아직 초기 연구이므로, 다양한 경우에 대한 분석이나 실험 결과는 없지만, 이를 활용하여 온라인 필기 인식 모델에 적용하여 인식 성능을 높이기 위한 추후 연구의 기반으로 활용하고자 한다.

An Impementation of a Remote Intruction System for Edutainmental Learn of Chinese Character (Edutainment식 한자학습을 위한 원격강의 시스템 구현)

  • 이은아;이춘근;김태석
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.06a
    • /
    • pp.361-366
    • /
    • 2001
  • 멀티미디어의 기술이 발전하고 인터넷이 보편화되면서 인터넷을 이용한 원격교육의 기술이 많이 연구되고 있으며 많은 교육·학습 분야에도 이용되고 있다. 본 논문에서는 한자 학습을 Edutainment식으로 구현하여 보다 재미있고 흥미롭게 구성하였으며 한자학습 코스웨어는 한자의 조합과 상형 문자의 변천과정 학습, 게임에 의한 학습, 에니메이션 전개형, 한자-한글 변만의 네 가지로 제안한다.

  • PDF

Structure-Adaptive Self-Organizing Neural Network : Application to Hangul Character Recognition (구조적응 자기조직화 신경망 : 한글 문자인식에의 적용)

  • Lee, Kyoung-Mi;Cho, Sung-Bae;Lee, Yill-Byung
    • Annual Conference on Human and Language Technology
    • /
    • 1995.10a
    • /
    • pp.137-142
    • /
    • 1995
  • 코호넨의 SOFM(Self-Organizing Feature Map)온 빠른 검증 학습이 가능하여 다층 퍼셉트론의 단점을 보완할 수 있는 패턴분류기로 부각되고 있다. 그러나 기본적으로 고정된 크기와 구조의 네트워크를 사용하기 때문에 실재 문제에 적용하기가 쉽지 않다는 문제가 있다. 본 논문에서는 패턴에 대한 사전 정보없이 복잡한 패턴공간을 적응적으로 분할하기 위해 구조적응되는 자기조직화 신경망을 소개하고 이를 인쇄체 한글 문자의 인식에 적용한 결과를 보여준다. 여기에서 제안하는 신경망은 SOFM의 각 셀이 좀더 자세한 SOFM으로 확장될 수 있도록하며, 확률분포가 0인 셀을 제거함으로써 패턴 공간에 보다 근사한 분류를 가능하게 한다. 실제로 이러한 방식이 한글과 같은 복잡한 분류 문제에서 어떻게 작동하는지 설명하고, 한글 완성형 2350자에 대해 실험한 결과를 보여준다.

  • PDF

Multi-font/multi-size Hangul Character Recognition with Hierarchical Neural Networks (계층적 신경망을 이용한 다중크기의 다중활자체 한글문자인식)

  • Gwon, Jae-Uk;Jo, Seong-Bae;Kim, Jin-Hyeong
    • Annual Conference on Human and Language Technology
    • /
    • 1990.11a
    • /
    • pp.183-190
    • /
    • 1990
  • 본 논문에서는 인쇄체 한글문자를 실용적으로 인식하기 위하여 고안된 계층적 신경망을 소개하고, 이를 다중활자체의 한글문자를 인식하는 문제에 적용하였다. 이 신경망은 입력된 문자영상을 6가지의 유형으로 분류한 후, 해당 유형을 처리하는 신경망에서 실제 문자를 인식하도록 구성되었다. 또한 각 신경망을 모든 입력영상의 모든 출력노드에 대해 고르게 학습시키기 위하여 Backpropagation 알고리즘을 개선한 Descending Epsilon 알고리즘을 도입하였다. 그 결과 사용빈도수가 높은 한글 520자에 대해 94.4 - 98.4%의 인식률을 얻음으로써 본 논문에서 제안한 시스템이 다양한 활자체로 이루어진 실제 문서인식시스템의 문자인식부에 효과적으로 사용될 수 있음을 제시하였다.

  • PDF

Developing XML based multilingual language education system (다국어 학습을 위한 XML기반 학습시스템의 설계)

  • Jeong, Hwi-Woong;Yoon, Ae-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.407-412
    • /
    • 1999
  • XML은 언어정보의 재사용성 및 다른 유형의 정보로 변환이 용이하여 최근 그 사용이 급증하고 있다. 그러나 XML은 아직까지 일부 분야에 국한되어 이용되고 있으며, 국내에서도 XML을 실제 활용하여 개발되고 있는 시스템은 극히 미약하다. 본 연구에서는 XML의 이점을 살려 한글을 포함한 다국어간 언어학습 컨텐트를 쉽게 구성하고 가공할 수 있는 XML 문서 내의 다국어 표현 방법에 대해 연구하였다. 또한 다국어 정보를 웹 환경에서 구현하기 위한 XSL과 유사한 문서 변환 구조 및 이를 처리할 수 있는 XML 처리기의 구조에 대해서도 소개한다. 본 연구에서 소개하는 문서 변환 구조를 이용할 경우 문자로 표현 가능한 매체를 매개로 하여 다양한 멀티미디어 컨텐트를 쉽게 작성할 수 있다.

  • PDF

Recognition of the Korean alphabet Using Neural Oscillator Phase model Synchronization (신경 진동자 위상모델의 동기화를 이용한 한글인식)

  • Kwon, Yong-Bum;Song, Hong-Jun;Park, Young-Sik;Lee, Joon-Tark
    • Proceedings of the KIEE Conference
    • /
    • 2003.07d
    • /
    • pp.2280-2282
    • /
    • 2003
  • 신경 진동자는 이미지정보의 해석, 음성인식, 지질 변화 예측 등의 진동하는 시스템에 응용되어진다. 이러한 진동하는 시스템에 기존의 역전파 알고리즘을 이용하는 경우, 복잡 다양한 입력 패턴을 추정하기가 어려우므로 학습단계에서 더 많은 양의 학습 데이터가 필요하게 되며 수렴 속도의 지연과 근사화가 어렵다. 따라서 본 논문에서는 모델에 대한 함수의 근사화가 쉬우며 학습하는 구조를 가지는 신경 진동자에 의한 위상 동기화 특성을 연구하고 이를 이용한 한글 문자 인식시스템을 구현하였다.

  • PDF

Development of Korean Learning Content for Children based on Interactive Edutainment (인터렉티브 에듀테인먼트 기반 유아용 한글 학습 콘텐츠 개발)

  • Song, Mi-Young;Park, Soo-Bin;Kim, Woo-Yeon;Kim, Hyo-Won;Choi, Yoo-Jin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.07a
    • /
    • pp.55-56
    • /
    • 2019
  • 본 논문은 유아기 언어 발달 시기에 한글의 기초 단계를 학습하기 위해 기존의 교육 방식과는 달리 시각적, 청각적 효과로 몸의 감각을 통해 사물을 배우며 이러한 자극으로 정보를 기억하고 축적할 수 있는 에듀테인먼트 콘텐츠를 개발한다. 유아의 호기심을 자극할 뿐만 아니라 모바일 플랫폼과의 상호작용을 통해 재미와 즐거움을 키우며 나아가 지식을 얻을 수 있다.

  • PDF

Query Extension of Retrieve System Using Hangul Word Embedding and Apriori (한글 워드임베딩과 아프리오리를 이용한 검색 시스템의 질의어 확장)

  • Shin, Dong-Ha;Kim, Chang-Bok
    • Journal of Advanced Navigation Technology
    • /
    • v.20 no.6
    • /
    • pp.617-624
    • /
    • 2016
  • The hangul word embedding should be performed certainly process for noun extraction. Otherwise, it should be trained words that are not necessary, and it can not be derived efficient embedding results. In this paper, we propose model that can retrieve more efficiently by query language expansion using hangul word embedded, apriori, and text mining. The word embedding and apriori is a step expanding query language by extracting association words according to meaning and context for query language. The hangul text mining is a step of extracting similar answer and responding to the user using noun extraction, TF-IDF, and cosine similarity. The proposed model can improve accuracy of answer by learning the answer of specific domain and expanding high correlation query language. As future research, it needs to extract more correlation query language by analysis of user queries stored in database.

Contents Analysis of Vocabulary Learning Game Application on Smart-Phone and Tablet PC for Young Children's Language Learning (유아 언어학습용 단어게임 애플리케이션 분석)

  • Hyun, Eunja;Yeon, Hyemin;Jang, Juyeon;Lee, Eunyoung
    • The Journal of the Korea Contents Association
    • /
    • v.13 no.11
    • /
    • pp.551-561
    • /
    • 2013
  • The purpose of this study was firstly, to evaluate the contents of vocabulary game applications for young children's language learning. and secondly, to examine whether there is any differences between Korean and English word games in terms of the evaluation score. For this purpose, the word game applications in smart phone and tablet PC were analyzed, which included 30 Korean word games and another 30 English ones. The criteria to evaluate the contents were developed based on Children's Software Evaluation Instrument developed by CTR, the multimedia evaluation standard by Hee Sook Park, Young Joo Lee, and mobile contents evaluation standard by Soo Ui Choi. As a result, the educational value got the highest score whereas the design characteristics area got the lowest score in the whole evaluation analysis. And English word game applications mostly got higher score than Korean versions. The result of this study would suggest the way to evaluate educational game applications in use and to contribute to developing educational game contents aimed at young children's language learning.

A Study on Fine-Tuning and Transfer Learning to Construct Binary Sentiment Classification Model in Korean Text (한글 텍스트 감정 이진 분류 모델 생성을 위한 미세 조정과 전이학습에 관한 연구)

  • JongSoo Kim
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.28 no.5
    • /
    • pp.15-30
    • /
    • 2023
  • Recently, generative models based on the Transformer architecture, such as ChatGPT, have been gaining significant attention. The Transformer architecture has been applied to various neural network models, including Google's BERT(Bidirectional Encoder Representations from Transformers) sentence generation model. In this paper, a method is proposed to create a text binary classification model for determining whether a comment on Korean movie review is positive or negative. To accomplish this, a pre-trained multilingual BERT sentence generation model is fine-tuned and transfer learned using a new Korean training dataset. To achieve this, a pre-trained BERT-Base model for multilingual sentence generation with 104 languages, 12 layers, 768 hidden, 12 attention heads, and 110M parameters is used. To change the pre-trained BERT-Base model into a text classification model, the input and output layers were fine-tuned, resulting in the creation of a new model with 178 million parameters. Using the fine-tuned model, with a maximum word count of 128, a batch size of 16, and 5 epochs, transfer learning is conducted with 10,000 training data and 5,000 testing data. A text sentiment binary classification model for Korean movie review with an accuracy of 0.9582, a loss of 0.1177, and an F1 score of 0.81 has been created. As a result of performing transfer learning with a dataset five times larger, a model with an accuracy of 0.9562, a loss of 0.1202, and an F1 score of 0.86 has been generated.