• Title/Summary/Keyword: 결합 학습

Search Result 1,073, Processing Time 0.034 seconds

Jointly Learning Model using modified Latent Structural SVM (Latent Structural SVM을 확장한 결합 학습 모델)

  • Lee, Changki
    • Annual Conference on Human and Language Technology
    • /
    • 2013.10a
    • /
    • pp.70-73
    • /
    • 2013
  • 자연어처리에서는 많은 모듈들이 파이프라인 방식으로 연결되어 사용되나, 이 경우 앞 단계의 오류가 뒷 단계에 누적되는 문제와 앞 단계에서 뒷 단계의 정보를 사용하지 못한다는 단점이 있다. 본 논문에서는 파이프라인 방식의 문제를 해결하기 위해 사용되는 일반적인 결합 학습 방법을 확장하여, 두 작업이 동시에 태깅된 학습 데이터뿐만 아니라 한 작업만 태깅된 학습데이터도 동시에 학습에 사용할 수 있는 결합 학습 모델을 Latent Structural SVM을 확장하여 제안한다. 실험 결과, 기존의 한국어 띄어쓰기와 품사 태깅 결합 모델의 품사 태깅 성능이 96.99%였으나, 본 논문에서 제안하는 결합 학습 모델을 이용하여 대용량의 한국어 띄어쓰기 학습데이터를 추가로 학습한 결과 품사 태깅 성능이 97.20%까지 향상 되었다.

  • PDF

Financial Application of Integrated Optimization and Machine Learning Technique (최적화와 기계학습 결합기법의 재무응용)

  • Kim, Kyoung-jae;Park, Hoyeon;Cha, Injoon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.429-430
    • /
    • 2019
  • 본 논문에서는 최적화 기법에 기반한 지능형 시스템의 재무응용사례를 다룬다. 본 연구에서 제안하는 모형은 대표적인 최적화 기법 중 하나인 시뮬레이티드 어니일링인데 이는 유전자 알고리듬과 유사한 최적화 성능을 가지고 있는 것으로 알려져 있으나 재무분야에서 응용된 사례가 거의 없다. 본 연구에서 제안하는 지능형 시스템은 시뮬레이티드 어니일링과 기계학습 기법을 결합한 것이다. 일반적으로 최적화와 기계학습 기법을 결합하는 방법은 특징선택(feature selection), 특징 가중치 최적화(feature weighting), 사례선택(instance selection), 모수 최적화(parameter optimization) 등의 방법이 있는데 선행연구에서 가장 많이 사용된 것은 특징선택에 두 기법을 결합하는 방식이다. 본 연구에서도 기계학습 기법을 재무 문제에 활용함에 있어서 최적의 특징선택을 위해 시뮬레이티드 어니일링을 결합하는 방식을 사용한다. 본 연구에서 제안된 기법의 유용성을 확인하기 위하여 실제 재무분야의 데이터를 활용하여 예측 정확도를 확인하였으며 그 결과를 통하여 제안하는 모형의 유용성을 확인할 수 있었다.

  • PDF

The Joint Effect of factors on Generalization Performance of Neural Network Learning Procedure (신경망 학습의 일반화 성능향상을 위한 인자들의 결합효과)

  • Yoon YeoChang
    • The KIPS Transactions:PartB
    • /
    • v.12B no.3 s.99
    • /
    • pp.343-348
    • /
    • 2005
  • The goal of this paper is to study the joint effect of factors of neural network teaming procedure. There are many factors, which may affect the generalization ability and teaming speed of neural networks, such as the initial values of weights, the learning rates, and the regularization coefficients. We will apply a constructive training algerian for neural network, then patterns are trained incrementally by considering them one by one. First, we will investigate the effect of these factors on generalization performance and learning speed. Based on these factors' effect, we will propose a joint method that simultaneously considers these three factors, and dynamically hue the learning rate and regularization coefficient. Then we will present the results of some experimental comparison among these kinds of methods in several simulated nonlinear data. Finally, we will draw conclusions and make plan for future work.

Application of data preprocessing to improve the performance of the metaheuristic optimization algorithm-deep learning combination model (메타휴리스틱 최적화 알고리즘-딥러닝 결합모형의 성능 개량을 위한 데이터 전처리의 적용)

  • Ryu, Yong Min;Lee, Eui Hoon
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.114-114
    • /
    • 2022
  • 딥러닝의 학습 및 예측성능을 개선하기 위해서는 딥러닝 기법 내 연산과정의 개선과 함께 학습 및 예측에 사용되는 데이터의 전처리 과정이 중요하다. 본 연구에서는 딥러닝의 성능을 개량하기 위해 제안된 메타휴리스틱 최적화 알고리즘-딥러닝 결합모형과 데이터 전처리 기법을 통해 댐의 수위를 예측하였다. 수위예측을 위해 Multi-Layer Perceptron(MLP), 메타휴리스틱 최적화 알고리즘인 Harmony Search(HS)와 딥러닝을 결합한 MLP using a HS(MLPHS) 및 Exponential Bandwidth Harmony Search with Centralized Global Search(EBHS-CGS)와 딥러닝을 결합한MLP using a EBHS-CGS(MLPEBHS)를 통해 댐의 수위를 예측하였다. 메타휴리스틱 최적화 알고리즘-딥러닝 결합모형의 학습 및 예측성능을 개선하기 위해 학습 및 예측을 위한 자료를 기반으로 데이터 전처리기법을 적용하였다. 적용된 데이터 전처리 기법은 정규화, 수위구간별 사상(Event)분리 및 수위 변동에 대한 자료의 구분이다. 수위예측을 위한 대상유역은 금강유역에 위치한 대청댐으로 선정하였다. 대청댐의 수위예측을 위해 대청댐 상류에 위치하는 수위관측소 3개소를 선정하여 수위자료를 취득하였다. 각 수위관측소에서 취득한 수위자료를 입력자료로 설정하였으며, 대청댐의 수위자료를 출력자료로 설정하여 메타휴리스틱 최적화 알고리즘-딥러닝 모형의 학습을 진행하였다. 각 수위관측소 및 대청댐에서 취득한 수위자료는 2010년부터 2020년까지 총 11년의 일 단위 수위자료이며, 2010년부터 2019년까지의 자료를 학습자료로 사용하였으며, 2020년의 자료를 예측 및 검증자료로 사용하였다.

  • PDF

Jointly learning class coincidence classification for FAQ classification (FAQ 분류 성능 향상을 위한 클래스 일치 여부 결합 학습 모델)

  • Yang, Dongil;Ham, Jina;Lee, Kangwook;Lee, Jiyeon
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.12-17
    • /
    • 2019
  • FAQ(Frequently Asked Questions) 질의 응답 시스템은 자주 묻는 질문과 답변을 정의하고, 사용자 질의에 대해 정의된 답변 중 가장 알맞는 답변을 추론하여 제공하는 시스템이다. 정의된 대표 질문 및 대응하는 답변을 클래스(Class)라고 했을 때, FAQ 질의 응답 시스템은 분류(Classification) 문제라고 할 수 있다. 종래의 FAQ 분류는 동일 클래스 내 동의 문장(Paraphrase)에서 나타나는 공통적인 특징을 통해 분류 문제를 학습하였으나, 이는 비슷한 단어 구성을 가지면서 한 두 개의 단어에 의해 의미가 다른 문장의 차이를 구분하지 못하며, 특히 서로 다른 클래스에 속한 학습 데이터 간에 비슷한 의미를 가지는 문장이 존재할 때 클래스 분류에 오류가 발생하기 쉬운 문제점을 가지고 있다. 본 논문에서는 이 문제점을 해결하고자 서로 다른 클래스 내의 학습 데이터 문장들이 상이한 클래스임을 구분할 수 있도록 클래스 일치 여부(Class coincidence classification) 문제를 결합 학습(Jointly learning)하는 기법을 제안한다. 동일 클래스 내 학습 문장의 무작위 쌍(Pair)을 생성 및 학습하여 해당 쌍이 같은 클래스에 속한다는 것을 학습하게 하면서, 동시에 서로 다른 클래스 간 학습 문장의 무작위 쌍을 생성 및 학습하여 해당 쌍은 상이한 클래스임을 구분해 내는 능력을 함께 학습하도록 유도하였다. 실험을 위해서는 최근 발표되어 자연어 처리 분야에서 가장 좋은 성능을 보이고 있는 BERT 의 텍스트 분류 모델을 이용했으며, 제안한 기법을 적용한 모델과의 성능 비교를 위해 한국어 FAQ 데이터를 기반으로 실험을 진행했다. 실험 결과, 분류 문제만 단독으로 학습한 BERT 기본 모델보다 본 연구에서 제안한 클래스 일치 여부 결합 학습 모델이 유사한 문장들 간의 차이를 구분하며 유의미한 성능 향상을 보인다는 것을 확인할 수 있었다.

  • PDF

A study on compensation of incorrect recognition on HMM using multilayer perceptrons (신경망을 이용한 HMM의 오인식 보상에 관한 연구)

  • Pyo Chang Soo;Kim Chang Keun;Hur Kang In
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.27-30
    • /
    • 2000
  • 본 논문은 HMM(Hidden Markov Model)을 이용하여 인식을 수행할 경우의 오류를 최소화 할 수 있는 후 처리 과정으로 신경망을 결합시켜 HMM 단독으로 사용하였을 때 보다 높은 인식률을 얻을 수 있는 HMM과 신경망의 하이브리드시스템을 제안한다. HMM을 이용하여 학습한 후 학습에 참여하지 않은 데이터를 인식하였을 때 오인식 데이터를 정인식으로 인식하도록 HMM의 출력으로 얻은 각 출력확률을 후 처리에 사용될 MLP(Multilayer Perceptrons)의 학습용으로 사용하여 MLP를 학습하여 HMM과 MLP을 결합한 하이브리드 모델을 만든다. 이와 같은 HMM과 신경망을 결합한 하이브리드 모델을 사용하여 단독 숫자음과 4연 숫자음 데이터에서 실험한 결과 HMM 단독으로 사용하였을 때 보다 각각 약 $4.5\%$, $1.3\%$의 인식률 향상이 있었다. 기존의 하이브리드 시스템이 갖는 많은 학습시간이 소요되는 문제점과 실시간 음성인식시스템을 구현할 때의 학습데이터의 부족으로 인한 인식률 저하를 해결할 수 있는 방법임을 확인할 수 있었다.

  • PDF

A study on performance improvement of neural network using output probability of HMM (HMM의 출력확률을 이용한 신경회로망의 성능향상에 관한 연구)

  • 표창수;김창근;허강인
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.08a
    • /
    • pp.157-160
    • /
    • 2000
  • 본 논문은 HMM(Hidden Markov Model)을 이용하여 인식을 수행할 경우의 오류를 최소화 할 수 있는 후처리 과정으로 신경망을 결합시켜 HMM 단독으로 사용하였을 때 보다 높은 인식률을 얻을 수 있는 HMM과 신경망의 하이브리드시스템을 제안한다. HMM을 이용하여 학습한 후 학습에 참여하지 않은 데이터를 인식하였을 때 오인식 데이터를 정인식으로 인식하도록 HMM의 출력으로 얻은 각 출력확률을 후처리에 사용될 MLP(Multilayer Perceptrons)의 학습용으로 사용하여 MLP를 학습하여 HMM과 MLP을 결합한 하이브리드 모델을 만든다. 이와 같은 HMM과 신경망을 결합한 하이브리드 모델을 사용하여 단독 숫자음과 4연 숫자음 데이터에서 실험한 결과 HMM 단독으로 사용하였을 때 보다 각각 약 4.5%, 1.3%의 인식률 향상이 있었다. 기존의 하이브리드 시스템이 갖는 많은 학습시간이 소요되는 문제점과 실시간 음성인식시스템을 구현할 때의 학습데이터의 부족으로 인한 인식률 저하를 해결할 수 있는 방법임을 확인할 수 있었다.

  • PDF

Automatic Generation of Concatenate Morphemes for Korean LVCSR (대어휘 연속음성 인식을 위한 결합형태소 자동생성)

  • 박영희;정민화
    • The Journal of the Acoustical Society of Korea
    • /
    • v.21 no.4
    • /
    • pp.407-414
    • /
    • 2002
  • In this paper, we present a method that automatically generates concatenate morpheme based language models to improve the performance of Korean large vocabulary continuous speech recognition. The focus was brought into improvement against recognition errors of monosyllable morphemes that occupy 54% of the training text corpus and more frequently mis-recognized. Knowledge-based method using POS patterns has disadvantages such as the difficulty in making rules and producing many low frequency concatenate morphemes. Proposed method automatically selects morpheme-pairs from training text data based on measures such as frequency, mutual information, and unigram log likelihood. Experiment was performed using 7M-morpheme text corpus and 20K-morpheme lexicon. The frequency measure with constraint on the number of morphemes used for concatenation produces the best result of reducing monosyllables from 54% to 30%, bigram perplexity from 117.9 to 97.3. and MER from 21.3% to 17.6%.

The Effect of Initial Weight, Learning Rate and Regularized Coefficient on Generalization Performance (신경망 학습의 일반화 성능향상을 위한 초기 가중값과 학습률 그리고 계수조정의 효과)

  • Yoon YeoChang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.11a
    • /
    • pp.493-496
    • /
    • 2004
  • 본 연구에서는 신경망 학습의 중요한 평가 척도로써 고려될 수 있는 일반화 성능과 학습속도를 개선시키기 위한 방안으로써 초기 가중값과 학습률과 같은 주요 인자들을 이용한 신경망 학습 영향을 살펴본다. 특히 초기 가중값과 학습률을 고정시킨 후 새롭게 조정된 계수들을 점차적으로 변화시키는 새로운 인자 결합방법을 이용하여 신경망 학습량과 학습속도를 비교해 보고 계수조정을 통한 개선된 학습 영향을 살펴본다. 그리고 단순한 예제를 이용한 실증분석을 통하여 신경망 모형의 일반화 성능과 학습 속도 개선을 위한 각 인자들의 개별 효과와 결합 효과를 살펴보고 그 개선 방안을 제시한다.

  • PDF

Development of Scratch learning Program Based on PBL. (PBL기반 스크래치 학습 프로그램 개발)

  • Yang, Hwan-Geun;Lee, Tae-Wuk
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.201-203
    • /
    • 2019
  • 본 연구는 4차 산업혁명에 적합한 창의적 인재 양성의 필요성이 강조됨에 따라 SW관련 프로그래밍 교육과 문제중심학습을 결합하여 기존의 강의식학습에서 효과적인 학습전이를 위한 역량중심의 스스로 학습을 강조하는데 목적이 있다. PBL은 암기를 통한 주입식 교육에서 자기주도적 성장학습을 통해 필요한 기술을 개발한다는 이점과 블록기반 공개용 프로그램인 스크래치는 학습자들의 흥미 유발, 몰입도 향상을 하며 습득 교육에 중점을 둔다. 또한 풍부한 미디어 활용 및 뛰어난 공유성을 기반하고 있으며 단순 반복과 암기가 아닌 창의적 수업이 가능하다는 장점이 있다. 고찰능력과 사고력을 향상시키고자 PBL과 스크래치를 결합한 교수-학습법을 개발하였으며, 그에 상응하는 유의점 및 학습단계를 개발하였고 이를 활용하여 학습자의 논리적사고 함양에 이바지 한다.

  • PDF