• 제목/요약/키워드: deep neural network (DNN)

검색결과 254건 처리시간 0.026초

External knowledge를 사용한 LFMMI 기반 음향 모델링 (LFMMI-based acoustic modeling by using external knowledge)

  • 박호성;강요셉;임민규;이동현;오준석;김지환
    • 한국음향학회지
    • /
    • 제38권5호
    • /
    • pp.607-613
    • /
    • 2019
  • 본 논문은 external knowledge를 사용한 lattice 없는 상호 정보 최대화(Lattice Free Maximum Mutual Information, LF-MMI) 기반 음향 모델링 방법을 제안한다. External knowledge란 음향 모델에서 사용하는 학습 데이터 이외의 문자열 데이터를 말한다. LF-MMI란 심층 신경망(Deep Neural Network, DNN) 학습의 최적화를 위한 목적 함수의 일종으로, 구별 학습에서 높은 성능을 보인다. LF-MMI에는 DNN의 사후 확률을 계산하기 위해 음소의 열을 사전 확률로 갖는다. 본 논문에서는 LF-MMI의 목적식의 사전 확률을 담당하는 음소 모델링에 external knowlege를 사용함으로써 과적합의 가능성을 낮추고, 음향 모델의 성능을 높이는 방법을 제안한다. External memory를 사용하여 사전 확률을 생성한 LF-MMI 모델을 사용했을 때 기존 LF-MMI와 비교하여 14 %의 상대적 성능 개선을 보였다.

적대적 데이터 혼합: 분포 외 데이터에 대한 강건성과 추론 결과에 대한 신뢰성 향상 방법 (Adversarial-Mixup: Increasing Robustness to Out-of-Distribution Data and Reliability of Inference)

  • 권경필;유준혁
    • 대한임베디드공학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-8
    • /
    • 2021
  • Detecting Out-of-Distribution (OOD) data is fundamentally required when Deep Neural Network (DNN) is applied to real-world AI such as autonomous driving. However, modern DNNs are quite vulnerable to the over-confidence problem even if the test data are far away from the trained data distribution. To solve the problem, this paper proposes a novel Adversarial-Mixup training method to let the DNN model be more robust by detecting OOD data effectively. Experimental results show that the proposed Adversarial-Mixup method improves the overall performance of OOD detection by 78% comparing with the State-of-the-Art methods. Furthermore, we show that the proposed method can alleviate the over-confidence problem by reducing the confidence score of OOD data than the previous methods, resulting in more reliable and robust DNNs.

딥러닝을 이용한 스마트 교육시설 공사비 분석 및 예측 - 기획·설계단계를 중심으로 - (A Study on the Analysis and Estimation of the Construction Cost by Using Deep learning in the SMART Educational Facilities - Focused on Planning and Design Stage -)

  • 정승현;권오빈;손재호
    • 교육시설 논문지
    • /
    • 제25권6호
    • /
    • pp.35-44
    • /
    • 2018
  • The purpose of this study is to predict more accurate construction costs and to support efficient decision making in the planning and design stages of smart education facilities. The higher the error in the projected cost, the more risk a project manager takes. If the manager can predict a more accurate construction cost in the early stages of a project, he/she can secure a decision period and support a more rational decision. During the planning and design stages, there is a limited amount of variables that can be selected for the estimating model. Moreover, since the number of completed smart schools is limited, there is little data. In this study, various artificial intelligence models were used to accurately predict the construction cost in the planning and design phase with limited variables and lack of performance data. A theoretical study on an artificial neural network and deep learning was carried out. As the artificial neural network has frequent problems of overfitting, it is found that there is a problem in practical application. In order to overcome the problem, this study suggests that the improved models of Deep Neural Network and Deep Belief Network are more effective in making accurate predictions. Deep Neural Network (DNN) and Deep Belief Network (DBN) models were constructed for the prediction of construction cost. Average Error Rate and Root Mean Square Error (RMSE) were calculated to compare the error and accuracy of those models. This study proposes a cost prediction model that can be used practically in the planning and design stages.

Korean and English Sentiment Analysis Using the Deep Learning

  • 마렌드라;최형림;임성배
    • 한국산업정보학회논문지
    • /
    • 제23권3호
    • /
    • pp.59-71
    • /
    • 2018
  • Social media has immense popularity among all services today. Data from social network services (SNSs) can be used for various objectives, such as text prediction or sentiment analysis. There is a great deal of Korean and English data on social media that can be used for sentiment analysis, but handling such huge amounts of unstructured data presents a difficult task. Machine learning is needed to handle such huge amounts of data. This research focuses on predicting Korean and English sentiment using deep forward neural network with a deep learning architecture and compares it with other methods, such as LDA MLP and GENSIM, using logistic regression. The research findings indicate an approximately 75% accuracy rate when predicting sentiments using DNN, with a latent Dirichelet allocation (LDA) prediction accuracy rate of approximately 81%, with the corpus being approximately 64% accurate between English and Korean.

주목 메커니즘 기반의 심층신경망을 이용한 음성 감정인식 (Speech emotion recognition using attention mechanism-based deep neural networks)

  • 고상선;조혜승;김형국
    • 한국음향학회지
    • /
    • 제36권6호
    • /
    • pp.407-412
    • /
    • 2017
  • 본 논문에서는 주목 메커니즘 기반의 심층 신경망을 사용한 음성 감정인식 방법을 제안한다. 제안하는 방식은 CNN(Convolution Neural Networks), GRU(Gated Recurrent Unit), DNN(Deep Neural Networks)의 결합으로 이루어진 심층 신경망 구조와 주목 메커니즘으로 구성된다. 음성의 스펙트로그램에는 감정에 따른 특징적인 패턴이 포함되어 있으므로 제안하는 방식에서는 일반적인 CNN에서 컨벌루션 필터를 tuned Gabor 필터로 사용하는 GCNN(Gabor CNN)을 사용하여 패턴을 효과적으로 모델링한다. 또한 CNN과 FC(Fully-Connected)레이어 기반의 주목 메커니즘을 적용하여 추출된 특징의 맥락 정보를 고려한 주목 가중치를 구해 감정인식에 사용한다. 본 논문에서 제안하는 방식의 검증을 위해 6가지 감정에 대해 인식 실험을 진행하였다. 실험 결과, 제안한 방식이 음성 감정인식에서 기존의 방식보다 더 높은 성능을 보였다.

DNN과 LSTM을 활용한 콘크리트의 건조수축량 예측성능 평가 (Performance Evaluation of Concrete Drying Shrinkage Prediction Using DNN and LSTM)

  • 한준희;임군수;이현직;박재웅;김종;한민철
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2023년도 봄 학술논문 발표대회
    • /
    • pp.179-180
    • /
    • 2023
  • In this study, the performance of the prediction model was compared and analyzed using DNN and LSTM learning models to predict the amount of dry shrinkage of the concrete. As a result of the analysis, DNN model had a high error rate of about 51%, indicating overfitting to the training data. But, the LSTM learning model showed a relatively higher accuracy with an error rate of 12% compared to the DNN model. Also, the Pre_LSTM model which preprocess data, showed the performance with an error rate of 9% and a coefficient of determination of 0.887 in the LSTM learning model.

  • PDF

짧은 음성을 대상으로 하는 화자 확인을 위한 심층 신경망 (Deep neural networks for speaker verification with short speech utterances)

  • 양일호;허희수;윤성현;유하진
    • 한국음향학회지
    • /
    • 제35권6호
    • /
    • pp.501-509
    • /
    • 2016
  • 본 논문에서는 짧은 테스트 발성에 대한 화자 확인 성능을 개선하는 방법을 제안한다. 테스트 발성의 길이가 짧을 경우 i-벡터/확률적 선형판별분석 기반 화자 확인 시스템의 성능이 하락한다. 제안한 방법은 짧은 발성으로부터 추출한 특징 벡터를 심층 신경망으로 변환하여 발성 길이에 따른 변이를 보상한다. 이 때, 학습시의 출력 레이블에 따라 세 종류의 심층 신경망 이용 방법을 제안한다. 각 신경망은 입력 받은 짧은 발성 특징에 대한 출력 결과와 원래의 긴 발성으로부터 추출한 특징과의 차이를 줄이도록 학습한다. NIST (National Institute of Standards Technology, 미국) 2008 SRE(Speaker Recognition Evaluation) 코퍼스의 short 2-10 s 조건 하에서 제안한 방법의 성능을 평가한다. 실험 결과 부류 내 분산 정규화 및 선형 판별 분석을 이용하는 기존 방법에 비해 최소 검출 비용이 감소하는 것을 확인하였다. 또한 짧은 발성 분산 정규화 기반 방법과도 성능을 비교하였다.

자율주행차용 우선순위 기반 다중 DNN 모델 스케줄링 프레임워크 (Priority-based Multi-DNN scheduling framework for autonomous vehicles)

  • 조호진;홍선표;김명선
    • 한국정보통신학회논문지
    • /
    • 제25권3호
    • /
    • pp.368-376
    • /
    • 2021
  • 최근 딥러닝 기술이 발전함에 따라 자율 사물 기술이 주목받으면서 드론이나 자율주행차 같은 임베디드 시스템에서 DNN을 많이 활용하고 있다. 클라우드에 의지하지 않고 높은 인식 정확도를 위해서 큰 규모의 연산이 가능하고 다수의 DNN을 처리할 수 있는 임베디드 시스템들이 출시되고 있다. 이러한 시스템 내부에는 다양한 수준의 우선순위를 갖는 DNN들이 존재한다. 자율주행차의 안전 필수에 관련된 DNN들은 가장 높은 우선순위를 갖고 이들은 반드시 최우선적으로 처리되어야 한다. 본 논문에서는 다수의 DNN이 동시에 실행될 때 우선순위를 고려해서 DNN을 스케줄링하는 프레임워크를 제안한다. 낮은 우선순위의 DNN이 먼저 실행되고 있어도 높은 우선순위의 DNN이 이를 선점할 수 있어 자율주행차의 안전 필수 응용의 빠른 응답 특성을 보장한다. 실험을 통하여 확인한 결과 실제 상용보드에서 최대 76.6% 성능이 향상되었다.

Forecasting realized volatility using data normalization and recurrent neural network

  • Yoonjoo Lee;Dong Wan Shin;Ji Eun Choi
    • Communications for Statistical Applications and Methods
    • /
    • 제31권1호
    • /
    • pp.105-127
    • /
    • 2024
  • We propose recurrent neural network (RNN) methods for forecasting realized volatility (RV). The data are RVs of ten major stock price indices, four from the US, and six from the EU. Forecasts are made for relative ratio of adjacent RVs instead of the RV itself in order to avoid the out-of-scale issue. Forecasts of RV ratios distribution are first constructed from which those of RVs are computed which are shown to be better than forecasts constructed directly from RV. The apparent asymmetry of RV ratio is addressed by the Piecewise Min-max (PM) normalization. The serial dependence of the ratio data renders us to consider two architectures, long short-term memory (LSTM) and gated recurrent unit (GRU). The hyperparameters of LSTM and GRU are tuned by the nested cross validation. The RNN forecast with the PM normalization and ratio transformation is shown to outperform other forecasts by other RNN models and by benchmarking models of the AR model, the support vector machine (SVM), the deep neural network (DNN), and the convolutional neural network (CNN).

An Adaptation Method in Noise Mismatch Conditions for DNN-based Speech Enhancement

  • Xu, Si-Ying;Niu, Tong;Qu, Dan;Long, Xing-Yan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권10호
    • /
    • pp.4930-4951
    • /
    • 2018
  • The deep learning based speech enhancement has shown considerable success. However, it still suffers performance degradation under mismatch conditions. In this paper, an adaptation method is proposed to improve the performance under noise mismatch conditions. Firstly, we advise a noise aware training by supplying identity vectors (i-vectors) as parallel input features to adapt deep neural network (DNN) acoustic models with the target noise. Secondly, given a small amount of adaptation data, the noise-dependent DNN is obtained by using $L_2$ regularization from a noise-independent DNN, and forcing the estimated masks to be close to the unadapted condition. Finally, experiments were carried out on different noise and SNR conditions, and the proposed method has achieved significantly 0.1%-9.6% benefits of STOI, and provided consistent improvement in PESQ and segSNR against the baseline systems.