• Title/Summary/Keyword: 학습 한국어

Search Result 1,340, Processing Time 0.024 seconds

Status of Korean Idiom Understanding for Chinese Learners of Korean according to Tasks (과제 유형에 따른 중국인 한국어 학습자의 관용어 이해 실태 양상)

  • Lee, Mi-Kyung;Kang, An-Young;Kim, Youn-Joo
    • The Journal of the Korea Contents Association
    • /
    • v.15 no.10
    • /
    • pp.658-668
    • /
    • 2015
  • The purpose of present study tested the effects of context, transparency, familiarity and related variables on comprehension of 32 idioms in 87 Chinese learners of Korean who were attending the S university in Jeonnam providence. In the first assessment, idiomatic phrases were presented out of context. In another assessment, idiomatic phrases were embedded in supportive story contexts. To examine the difference based on task types, paired t-test or one-way ANOVA was used to test differences on related variables such as TOPIK, years of residence in Korea, major and etc. on idiom comprehension. The results of this study are summarized as follows. First, task type, familiarity and transparency were found to have no significant effect on idiom comprehension for Chinese learners of Korean. Second, the related variables such as TOPIK, and major had a significant effect on idiom comprehension. Third, percentage of context related interpretation error in context task was the highest. Literal interpretation errors were followed by it. It means they have a tendency to use contextual cues and semantic analysis of the phrase to comprehend Korean idioms. The results of study will be used to make a plan for teaching Chinese learners of Korean.

Language Specific CTC Projection Layers on Wav2Vec2.0 for Multilingual ASR (다국어 음성인식을 위한 언어별 출력 계층 구조 Wav2Vec2.0)

  • Lee, Won-Jun;Lee, Geun-Bae
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.414-418
    • /
    • 2021
  • 다국어 음성인식은 단일언어 음성인식에 비해 높은 난이도를 보인다. 하나의 단일 모델로 다국어 음성인식을 수행하기 위해선 다양한 언어가 공유하는 음성적 특성을 모델이 학습할 수 있도록 하여 음성인식 성능을 향상시킬 수 있다. 본 연구는 딥러닝 음성인식 모델인 Wav2Vec2.0 구조를 변경하여 한국어와 영어 음성을 하나의 모델로 학습하는 방법을 제시한다. CTC(Connectionist Temporal Classification) 손실함수를 이용하는 Wav2Vec2.0 모델의 구조에서 각 언어마다 별도의 CTC 출력 계층을 두고 각 언어별 사전(Lexicon)을 적용하여 음성 입력을 다른 언어로 혼동되는 경우를 원천적으로 방지한다. 제시한 Wav2Vec2.0 구조를 사용하여 한국어와 영어를 잘못 분류하여 음성인식률이 낮아지는 문제를 해결하고 더불어 제시된 한국어 음성 데이터셋(KsponSpeech)에서 한국어와 영어를 동시에 학습한 모델이 한국어만을 이용한 모델보다 향상된 음성 인식률을 보임을 확인하였다. 마지막으로 Prefix 디코딩을 활용하여 언어모델을 이용한 음성인식 성능 개선을 수행하였다.

  • PDF

Domain-specific Korean Relation Extraction system using Prompt with Meta-Information (메타 정보를 활용한 프롬프트 기반 도메인 특화 한국어 관계 추출)

  • Jinsung Kim;Gyeongmin Kim;Junyoung Son;Aram So;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.369-373
    • /
    • 2022
  • 기존의 관계 추출 태스크에서의 많은 연구들은 사전학습 언어모델을 파인튜닝하여 뛰어난 성능을 달성해왔다. 하지만, 파인튜닝은 사전학습 시의 학습 기법과의 간극으로 인해 일반화 능력을 저해한다. 본 연구는 다운스트림 태스크를 사전학습의 Masked Language Modeling (MLM) 기법을 통해 해결하는 프롬프트 기반의 학습 기법을 활용하여, 특정 한국어 도메인에서의 관계 추출을 위한 프롬프트 기반 파인튜닝 방법론을 제안한다. 실험의 경우, 도메인의 특성이 뚜렷한 전통문화유산 말뭉치를 대상으로 실험을 진행하여 본 방법론의 도메인 적응력을 보이며, 메타 정보 즉, 개체 유형 및 관계 유형의 의미론적 정보를 일종의 지식 정보로 활용하여 프롬프트 기반 지식 주입의 효과성을 검증한다. 프롬프트에의 메타 정보의 주입과 함께 프롬프트 기반으로 파인튜닝된 모델은 오직 MLM 기법만을 이용하여 태스크를 수행하여 기존 파인튜닝 방법론 대비 파라미터 수가 적음에도, 성능 면에서 대부분 소폭 상승하는 경향을 보여줌으로써 그 효과성 및 효율성을 보인다.

  • PDF

Loanword Recognition Using Deep Learning (심층학습을 이용한 음절태깅 기반의 외래어 인식 시스템)

  • Park, Ho-Min;Kim, Chang-Hyun;Cheon, Min-Ah;Noh, Kyung-Mok;Kim, Jae-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.71-75
    • /
    • 2017
  • 외래어란 외국어로부터 들어와 한국어에 동화되고 한국어로서 사용되는 언어이다. 나날이 우리의 언어사용 문화에서 외래어의 사용 비율은 높아져가는 추세로, 전문분야에서는 특히 두드러진다. 그러므로 더 효율적이고 효과적인 자연언어처리를 위해서 문서 내 외래어 인식은 중요한 전처리 과정이다. 따라서 본 논문에서는 bidirectional LSTM(이하 bi-LSTM)-CRF 모형의 심층학습을 이용한 음절태깅 기반의 외래어 인식 시스템을 제안한다. 제안하는 시스템의 외래어 인식 학습 과정은 다음과 같다. 첫째, 학습용 말뭉치 자료의 한글 음절들과 공백, 마침표(.)를 토대로 word2vec을 통해 학습용 피쳐(feature) 자료를 생성한다. 둘째, 학습용 말뭉치 자료와 학습용 피쳐 자료를 결합하여 bi-LSTM 모형 학습 자료를 구축한다. 셋째, bi-LSTM 모형을 거쳐 학습된 결과물을 CRF 모형에서 로그 가능도(log likelyhood)와 비터비(Viterbi) 알고리즘을 통해 학습 결과물을 내놓는다. 넷째, 학습용 말뭉치 자료의 정답과 비교한 뒤 모형 내부의 수치들을 조정한다. 다섯째, 학습을 마칠 때까지 반복한다. 본 논문에서 제안하는 시스템을 이용하여 자체적인 뉴스 수집 자료에 대해서 높은 정확도와 재현율을 기록하였다.

  • PDF

Korean Part-of-Speech Tagging Error Correction Method Based on Statistical Decision Graph Learning (통계적 결정 그래프 학습 방법을 이용한 한국어 품사 부착 오류 수정)

  • Ryu, Won-Ho;Lee, Sang-Zoo;Rim, Hae-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 2001.10d
    • /
    • pp.123-129
    • /
    • 2001
  • 지금까지 한국어 품사 부착을 위해 다양한 모델이 제안되었고 95% 이상의 높은 정확도를 보여주고 있다. 그러나 4-5%의 오류는 실제 응용 분야에서 많은 문제를 야기시킬 수 있다. 이러한 오류를 최소화하기 위해서는 오류를 분석하고 이를 수정할 수 있는 규칙들을 학습하여 재사용하는 방범이 효과적이다. 오류 수정 규칙을 학습하기 위한 기존의 방법들은 수동학습 방법과 자동 학습 방법으로 나눌 수 있다 수동 학습 방법은 많은 비용이 요구되는 단점이 있다. 자동 학습 방법의 경우 모두 변형규칙 기반 접근 방법을 사용하였는데 어휘 정보를 고려할 경우 탐색 공간과 규칙 적용 시간이 매우 크다는 단점이 있다. 따라서 본 논문에서는 초기 모델에 대한 오류 수정 규칙을 효율적으로 학습하기 위한 새로운 방법으로 결정 트리 학습 방법을 확장한 통계적 결정 그래프 학습 방법을 제안한다. 제안된 방법으로 두 가지 실험을 수행하였다. 초기 모델의 정확도가 높고 말뭉치의 크기가 작은 첫 번째 실험의 경우 초기 모델의 정확도 95.48%를 97.37%까지 향상시킬 수 있었다. 초기 모델의 정확도가 낮고 말뭉치 크기가 큰 두 번째 실험의 경우 초기 모델의 정확도 87.22%를 95.59%로 향상시켰다. 또한 실험을 통해 결정 트리 학습 방법에 비해 통계적 결정 그래프 학습 방법이 더욱 효과적임을 알 수 있었다.

  • PDF

A Composite Study on the Writing Characteristics of Korean Learners - Focused on Syntax Production, Syntax Complexity and Syntax Errors (한국어 학습자의 쓰기 특성에 관한 융복합적 연구 - 구문산출성, 구문복잡성 및 구문오류를 중심으로)

  • Lee, MI Kyung;Noh, Byungho
    • Journal of the Korea Convergence Society
    • /
    • v.9 no.11
    • /
    • pp.315-324
    • /
    • 2018
  • For Korean learners, writing is a harder part than any other areas in Korean languages. But in the future, the ability to organize and write systematically is essential for future koran languages learners to take classes, do assignments and presentations at school, and then adapt to job situations. Therefore, there is a need to devise a direction for this. In general, writing characteristics are viewed in many ways, including writing productivity, writing complexity, and writing errors. Accordingly, the study provided drawings and A4 paper for Vietnamese Korean learners, Chinese Korean learners, and Korean university students, before writing freely. Based on the their writing results, we looked at syntax factors (total C-units, total number of words), syntax complexity (number of words per C-unit and clause density), and writing errors (postposition, spell errors, and connective suffix, space errors) According to the study, Vietnamese and Chinese Korean language learners showed significantly lower syntax productivity and complexity than Korean university students, and showed more writing errors than Korean students in postposition and clause density. Based on the results of the study, we discussed writing guidelines for Korean languages learners. However, this study did not validate the differences in writing characteristics according to the Korean language level and length of residences for the study subjects. Therefore, it is necessary to consider this in future research.

A Study on strengthening the Korean pronunciation of Chinese speakers (중국어 화자의 한국어 발음의 강세에 관한 연구)

  • Jee, Sang-Hwi;Park, Hyung-Woo;Bae, Myung-Jin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.07a
    • /
    • pp.299-300
    • /
    • 2016
  • 매년 급격한 경제성장률을 보이는 중국은 이제 우리나라와 긴밀한 관계가 돼야할 필요성이 있으며, 이러한 이유로 국내외적으로 한국어 홍보와 한국어 학습교재 발간, 학습방법에 대한 논의가 이루어져 왔다. 따라서 중국인화자가 한국어를 발성하였을 때와 외국인화자의 한국어발성시의 특성을 비교, 분석 하였으며, 분석을 통한 향후 외국인들의 한국어 교육 시에 강세의 중요성을 알리기 위해 연구를 하고자 한다. 분석 결과 피치는 비슷하였으나 나머지 포만트 구간에서는 중국어 화자가 전체적으로 낮게 나왔으며, 중간 중간에 에너지가 적거나 없고, 강세부분에서 높낮이가 있지 않고 평탄한 결과를 얻을 수 있었다.

  • PDF

Automatic Question Generation for Korean Word Learning System (한국어 어휘학습시스템을 위한 자동 문제 생성)

  • Choe, Su-Il;Im, Ji-Hui;Choe, Ho-Seop;Ock, Cheol-Young
    • Proceedings of the Korean Society for Cognitive Science Conference
    • /
    • 2006.06a
    • /
    • pp.9-14
    • /
    • 2006
  • 본고는 한국어 교육방식의 하나라고 할 수 있는 한국어 어휘를 대상으로 한문제 출제 방식에서 문제 은행식 출제 방식이 갖고 있는 여러 가지 문제점을 해소할 수 있는 하나의 방법으로서 한국어 어휘 학습 시스템을 위한 자동문제 생성 기술을 제시한다. 먼저 기존 한국어 어휘 문제의 문항 분석 결과를 바탕으로 8가지 어휘력 평가 유형 및 각 유형별 자동 문제 생성 패턴을 구축하고, 한국어 어휘에 대한 풍부한 정보를 담고 있는 국어사전을 기반으로 한 자동 한국어 어휘 문제 생성 기술을 제시한다.

  • PDF

Korean Proposition Bank Guidelines for ExoBrain (ExoBrain을 위한 한국어 의미역 가이드라인 및 말뭉치 구축)

  • Lim, Soojong;Kwon, Minjung;Kim, Junsu;Kim, Hyunki
    • Annual Conference on Human and Language Technology
    • /
    • 2015.10a
    • /
    • pp.250-254
    • /
    • 2015
  • 본 논문은 한국어 의미역을 정의하고, 기계학습에 기반하여 한국어 의미역 인식 기술을 개발할 때 필요한 학습 말뭉치를 구축할 때 지켜야할 가이드라인을 제시하고자 한다. 한국어 의미역 정의는 전세계적으로 널리 쓰이고 있는 Proposition Bank를 따르면서, 한국어의 특성을 반영하였다. 또한 정의된 의미역 및 태깅 가이드라인에 따라 반자동 태깅 툴을 이용하여 말뭉치를 구축하였다.

  • PDF

Improvement of Transformation Rule-Based Korean Part-Of-Speech Tagger (변형 규칙 기반 한국어 품사 태거의 개선)

  • Lim, Heui-Seok;Kim, Jin-Dong;Rim, Hae-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 1996.10a
    • /
    • pp.216-221
    • /
    • 1996
  • 변형 규칙 기반 품사 태거는 태깅 규칙을 코퍼스로부터 자동 학습할 수 있고, 견고하며 태깅 결과를 이해하고 분석하기가 쉽다는 장점을 갖는다. 이에 최근 한국어 특성을 고려한 변형 규칙 기반 한국어 품사 태거가 개발되었다. 하지만 이 시스템은 오류 어절의 어휘 정보를 사용하지 않으므로 수정 가능 오류에 대한 변형 규칙이 제대로 학습되지 못하며, 변형 규칙 적용 과정에 새로운 오류를 발생시킨다는 문제점이 있다. 이에 본 논문은 오류 어절의 어휘 정보를 참조할 수 있는 세부변형 규칙 추출을 이용한 변형 규칙 기반 한국어 품사 태거의 개선 방안을 제안한다. 어휘 정보를 참조할 수 있는 세부 변형 규칙의 형태는 특정 문맥 C에서 어절 W의 어절 태그 ${\alpha}$를 어절 태그 ${\beta}$로 변형한다와 같다. 제안된 방법은 약 10만 어절 크기의 학습 코퍼스에서 57개의 세부 규칙을 학습하였고, 2만 어절 크기의 실험코퍼스에 적용한 결과 95.6%의 정확도를 보임으로써 기존의 변형 규칙 기반 품사 태거의 정확도를 약 15.4% 향상시켰다.

  • PDF