• 제목/요약/키워드: forward neural network

검색결과 273건 처리시간 0.032초

상황 인식 기반 해양 디지털 선박 상황 진단 시스템 구현 및 설계 (A Design and Implementation of Digital Vessel Context Diagnosis System Based on Context Aware)

  • 송병호;최명수;권장우;이성로
    • 한국통신학회논문지
    • /
    • 제35권6B호
    • /
    • pp.859-866
    • /
    • 2010
  • 예기치 못한 상황에 의한 선박 내 화재나 선체 파손 등 긴급 상황 발생 시에 대형의 해난 사고가 발생할 수 있다. 특히, 해수와 직접적으로 접촉하는 선체는 파도와 조류 등에 의해 다양한 저항과 흔들림 운동의 영향을 받게 되는 데 이를 고려한 선박 USN 미들웨어와 선박 내 상황 인식을 기반으로 한 시스템이 필요할 것이다. 이에 본 논문에서는 해양 디지털 선박의 무선 센서를 이용하여 수집된 위험 상황 정보를 분석하는 시스템을 제안하였으며, 센싱된 데이터를 분석하기 위하여 역전파 신경망을 설계하였다. 위험 상황별로 각 300개의 데이터 집합을 사용하여 역전파 신경망을 실험한 결과 화재 위험 상황에 대해서는 96%의 정확도를 가졌고 선체 위험 상황에 대해서는 약 88.7%의 정확도를 나타냈다. 제안된 시스템은 시스템의 정확도를 개선하기 위하여 전방향 에러 정정 시스템(LDPC)을 구현하였고 진단된 결과는 CDMA 방식으로 전송하여 해양 디지털선박 상황 모니터링 시스템을 구현했다.

역전파 ANN의 시스톨릭 어레이를 위한 시뮬레이터 개발 (Systolic Array Simulator Construction for the Back-propagation ANN)

  • 박기현;전상윤
    • 한국산업정보학회논문지
    • /
    • 제5권3호
    • /
    • pp.117-124
    • /
    • 2000
  • 시스톨릭 어레이는 간단한 연산능력을 가진 처리요소들이 정규적이고 국부적인 통신 선들로 연결된 병렬처리 시스템이다. 시스톨릭 어레이는 인공신경망에서 고밀하게 연결된 뉴런으로 인하여 발생하는 뉴런간의 복잡한 통신 문제를 해결하는 가장 좋은 방법 중의 하나로 알려져 있다. 본 논문에서는 주어진 뉴런수에 적합한 역전파 인공신경망을 자동으로 생성하는 시스톨릭 어레이 시뮬레이터를 설계하고 구현한다. 시뮬레이터의 애니메이션 기법을 이용하여, 설계된 시스틀릭 어레이 상에서의 역전파 알고리즘의 실행 상황을 사용자들이 단계별로 쉽게 관찰할 수 있다. 또한, 시뮬레이터는 역전파 알고리즘의 전 방향, 역 방향 연산을 각각 따로 실행시키거나, 병렬로 실행하게 할 수 있다. 병렬 실행은 입력 자료를 연속적으로 입력받아 시스톨릭 어레이의 모든 처리요소들에서 역전파 알고리즘의 양방향 전파를 동시에 실행시킴으로써 가능하다.

  • PDF

Bidirectional Convolutional LSTM을 이용한 Deepfake 탐지 방법 (A Method of Detection of Deepfake Using Bidirectional Convolutional LSTM)

  • 이대현;문종섭
    • 정보보호학회논문지
    • /
    • 제30권6호
    • /
    • pp.1053-1065
    • /
    • 2020
  • 최근 하드웨어의 성능과 인공지능 기술이 발달함에 따라 육안으로 구분하기 어려운 정교한 가짜 동영상들이 증가하고 있다. 인공지능을 이용한 얼굴 합성 기술을 딥페이크라고 하며 약간의 프로그래밍 능력과 딥러닝 지식만 있다면 누구든지 딥페이크를 이용하여 정교한 가짜 동영상을 제작할 수 있다. 이에 무분별한 가짜 동영상이 크게 증가하였으며 이는 개인 정보 침해, 가짜 뉴스, 사기 등에 문제로 이어질 수 있다. 따라서 사람의 눈으로도 진위를 가릴 수 없는 가짜 동영상을 탐지할 수 있는 방안이 필요하다. 이에 본 논문에서는 Bidirectional Convolutional LSTM과 어텐션 모듈(Attention module)을 적용한 딥페이크 탐지 모델을 제안한다. 본 논문에서 제안하는 모델은 어텐션 모듈과 신경곱 합성망 모델을 같이 사용되어 각 프레임의 특징을 추출하고 기존의 제안되어왔던 시간의 순방향만을 고려하는 LSTM과 달리 시간의 역방향도 고려하여 학습한다. 어텐션 모듈은 합성곱 신경망 모델과 같이 사용되어 각 프레임의 특징 추출에 이용한다. 실험을 통해 본 논문에서 제안하는 모델은 93.5%의 정확도를 갖고 기존 연구의 결과보다 AUC가 최대 50% 가량 높음을 보였다.

Application of POD reduced-order algorithm on data-driven modeling of rod bundle

  • Kang, Huilun;Tian, Zhaofei;Chen, Guangliang;Li, Lei;Wang, Tianyu
    • Nuclear Engineering and Technology
    • /
    • 제54권1호
    • /
    • pp.36-48
    • /
    • 2022
  • As a valid numerical method to obtain a high-resolution result of a flow field, computational fluid dynamics (CFD) have been widely used to study coolant flow and heat transfer characteristics in fuel rod bundles. However, the time-consuming, iterative calculation of Navier-Stokes equations makes CFD unsuitable for the scenarios that require efficient simulation such as sensitivity analysis and uncertainty quantification. To solve this problem, a reduced-order model (ROM) based on proper orthogonal decomposition (POD) and machine learning (ML) is proposed to simulate the flow field efficiently. Firstly, a validated CFD model to output the flow field data set of the rod bundle is established. Secondly, based on the POD method, the modes and corresponding coefficients of the flow field were extracted. Then, an deep feed-forward neural network, due to its efficiency in approximating arbitrary functions and its ability to handle high-dimensional and strong nonlinear problems, is selected to build a model that maps the non-linear relationship between the mode coefficients and the boundary conditions. A trained surrogate model for modes coefficients prediction is obtained after a certain number of training iterations. Finally, the flow field is reconstructed by combining the product of the POD basis and coefficients. Based on the test dataset, an evaluation of the ROM is carried out. The evaluation results show that the proposed POD-ROM accurately describe the flow status of the fluid field in rod bundles with high resolution in only a few milliseconds.

기온 데이터를 반영한 전력수요 예측 딥러닝 모델 (Electric Power Demand Prediction Using Deep Learning Model with Temperature Data)

  • 윤협상;정석봉
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권7호
    • /
    • pp.307-314
    • /
    • 2022
  • 최근 전력수요를 예측하기 위해 통계기반 시계열 분석 기법을 대체하기 위해 딥러닝 기법을 활용한 연구가 활발히 진행되고 있다. 딥러닝 기반 전력수요 예측 연구 결과를 분석한 결과, LSTM 기반 예측 모델의 성능이 우수한 것으로 규명되었으나 장기간의 지역 범위 전력수요 예측에 대해 LSTM 기반 모델의 성능이 충분하지 않음을 확인할 수 있다. 본 연구에서는 기온 데이터를 반영하여 24시간 이전에 전력수요를 예측하는 WaveNet 기반 딥러닝 모델을 개발하여, 실제 사용하고 있는 통계적 시계열 예측 기법의 정확도(MAPE 값 2%)보다 우수한 예측 성능을 달성하는 모델을 개발하고자 한다. 먼저 WaveNet의 핵심 구조인 팽창인과 1차원 합성곱 신경망 구조를 소개하고, 전력수요와 기온 데이터를 입력값으로 모델에 주입하기 위한 데이터 전처리 과정을 제시한다. 다음으로, 개선된 WaveNet 모델을 학습하고 검증하는 방법을 제시한다. 성능 비교 결과, WaveNet 기반 모델에 기온 데이터를 반영한 방법은 전체 검증데이터에 대해 MAPE 값 1.33%를 달성하였고, 동일한 구조의 모델에서 기온 데이터를 반영하지 않는 것(MAPE 값 2.31%)보다 우수한 전력수요 예측 결과를 나타내고 있음을 확인할 수 있다.

Real-time prediction on the slurry concentration of cutter suction dredgers using an ensemble learning algorithm

  • Han, Shuai;Li, Mingchao;Li, Heng;Tian, Huijing;Qin, Liang;Li, Jinfeng
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.463-481
    • /
    • 2020
  • Cutter suction dredgers (CSDs) are widely used in various dredging constructions such as channel excavation, wharf construction, and reef construction. During a CSD construction, the main operation is to control the swing speed of cutter to keep the slurry concentration in a proper range. However, the slurry concentration cannot be monitored in real-time, i.e., there is a "time-lag effect" in the log of slurry concentration, making it difficult for operators to make the optimal decision on controlling. Concerning this issue, a solution scheme that using real-time monitored indicators to predict current slurry concentration is proposed in this research. The characteristics of the CSD monitoring data are first studied, and a set of preprocessing methods are presented. Then we put forward the concept of "index class" to select the important indices. Finally, an ensemble learning algorithm is set up to fit the relationship between the slurry concentration and the indices of the index classes. In the experiment, log data over seven days of a practical dredging construction is collected. For comparison, the Deep Neural Network (DNN), Long Short Time Memory (LSTM), Support Vector Machine (SVM), Random Forest (RF), Gradient Boosting Decision Tree (GBDT), and the Bayesian Ridge algorithm are tried. The results show that our method has the best performance with an R2 of 0.886 and a mean square error (MSE) of 5.538. This research provides an effective way for real-time predicting the slurry concentration of CSDs and can help to improve the stationarity and production efficiency of dredging construction.

  • PDF

Improved Deep Learning-based Approach for Spatial-Temporal Trajectory Planning via Predictive Modeling of Future Location

  • Zain Ul Abideen;Xiaodong Sun;Chao Sun;Hafiz Shafiq Ur Rehman Khalil
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권7호
    • /
    • pp.1726-1748
    • /
    • 2024
  • Trajectory planning is vital for autonomous systems like robotics and UAVs, as it determines optimal, safe paths considering physical limitations, environmental factors, and agent interactions. Recent advancements in trajectory planning and future location prediction stem from rapid progress in machine learning and optimization algorithms. In this paper, we proposed a novel framework for Spatial-temporal transformer-based feed-forward neural networks (STTFFNs). From the traffic flow local area point of view, skip-gram model is trained on trajectory data to generate embeddings that capture the high-level features of different trajectories. These embeddings can then be used as input to a transformer-based trajectory planning model, which can generate trajectories for new objects based on the embeddings of similar trajectories in the training data. In the next step, distant regions, we embedded feedforward network is responsible for generating the distant trajectories by taking as input a set of features that represent the object's current state and historical data. One advantage of using feedforward networks for distant trajectory planning is their ability to capture long-term dependencies in the data. In the final step of forecasting for future locations, the encoder and decoder are crucial parts of the proposed technique. Spatial destinations are encoded utilizing location-based social networks(LBSN) based on visiting semantic locations. The model has been specially trained to forecast future locations using precise longitude and latitude values. Following rigorous testing on two real-world datasets, Porto and Manhattan, it was discovered that the model outperformed a prediction accuracy of 8.7% previous state-of-the-art methods.

기계학습을 활용한 특허수명 예측 및 영향요인 분석 (Prediction of patent lifespan and analysis of influencing factors using machine learning)

  • 김용우;김민구;김영민
    • 지능정보연구
    • /
    • 제28권2호
    • /
    • pp.147-170
    • /
    • 2022
  • 특허의 사적 가치(private value)를 나타내는 특허수명 추정은 오래전부터 연구되었으나 추정과정에서 선형모델에 의존하는 경우가 대부분이었고, 기계학습 방법을 사용하더라도 변수 간 관계에 대한 해석이나 설명이 부족하였다. 본 연구에서는 특허의 생존 기간이 특허의 가치를 대리한다는 기존 연구결과를 바탕으로 특허 등록 이후의 생존 기간(연장횟수) 예측을 통해 특허의 가치를 추정한다. 이를 위해 1996~2017년까지 미국 특허청(USPTO)에 출원하여 등록된 특허 4,033,414개를 수집하였다. 특허수명을 예측하기 위해 기존 연구에서 특허수명에 영향을 미친다고 밝혀진 특허의 특성, 특허의 소유자 특성, 특허의 발명가 특성을 반영할 수 있는 다양한 변수가 사용되었다. 서로 다른 4개의 모델(Ridge Regression, Random Forest, Feed-forward Neural Network, Gradient Boosting Models)을 생성하고, 모델 학습 과정에서는 5-fold Cross Validation으로 초매개변수 조정이 이루어졌다. 이후 생성된 모델의 성능을 평가하고 특허수명을 추정할 수 있는 예측변수의 상대적 중요도를 제시하였다. 또한, 성능이 우수했던 Gradient Boosting Model을 기반으로 Accumulated Local Effects Plot을 제시하여 예측변수와 특허수명 간 관계를 시각적으로 나타내었다. 마지막으로 모델에 의해서 평가된 개별 특허의 평가 근거를 제시하기 위하여 Kernal SHAP(SHapley Additive exPlanations)을 적용하고 특허평가 시스템에의 적용 가능성을 제시한다. 본 연구는 기존에 특허수명을 추정하는 연구에 누적적으로 기여한다는 점 그리고 선형성을 바탕으로 진행된 기존 특허수명 추정 연구들의 한계를 보완하고 복잡한 비선형 관계를 설명가능한 방식으로 제시하였다는 점에서 학문적 의의가 있다. 또한, 개별 특허의 평가 근거를 도출하는 방법을 소개하고 특허평가 시스템에의 적용 가능성을 제시하였다는 점에서 실무적 의의가 있다.

딥러닝과 머신러닝을 이용한 아파트 실거래가 예측 (Apartment Price Prediction Using Deep Learning and Machine Learning)

  • 김학현;유환규;오하영
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권2호
    • /
    • pp.59-76
    • /
    • 2023
  • 코로나 시대 이후 아파트 가격 상승은 비상식적이었다. 이러한 불확실한 부동산 시장에서 가격 예측 연구는 매우 중요하다. 본 논문에서는 다양한 부동산 사이트에서 자료 수집 및 크롤링을 통해 2015년부터 2020년까지 87만개의 방대한 데이터셋을 구축하고 다양한 아파트 정보와 경제지표 등 가능한 많은 변수를 모은 뒤 미래 아파트 매매실거래가격을 예측하는 모델을 만든다. 해당 연구는 먼저 다중 공선성 문제를 변수 제거 및 결합으로 해결하였다. 이후 의미있는 독립변수들을 뽑아내는 전진선택법(Forward Selection), 후진소거법(Backward Elimination), 단계적선택법(Stepwise Selection), L1 Regularization, 주성분분석(PCA) 총 5개의 변수 선택 알고리즘을 사용했다. 또한 심층신경망(DNN), XGBoost, CatBoost, Linear Regression 총 4개의 머신러닝 및 딥러닝 알고리즘을 이용해 하이퍼파라미터 최적화 후 모델을 학습시키고 모형간 예측력을 비교하였다. 추가 실험에서는 DNN의 node와 layer 수를 바꿔가면서 실험을 진행하여 가장 적절한 node와 layer 수를 찾고자 하였다. 결론적으로 가장 성능이 우수한 모델로 2021년의 아파트 매매실거래가격을 예측한 후 실제 2021년 데이터와 비교한 결과 훌륭한 성과를 보였다. 이를 통해 머신러닝과 딥러닝은 다양한 경제 상황 속에서 투자자들이 주택을 구매할 때 올바른 판단을 할 수 있도록 도움을 줄 수 있을 것이라 확신한다.

2D-QSAR방법을 이용한 농약류의 무지개 송어 급성 어독성 분석 및 예측 (Prediction and analysis of acute fish toxicity of pesticides to the rainbow trout using 2D-QSAR)

  • 송인식;차지영;이성광
    • 분석과학
    • /
    • 제24권6호
    • /
    • pp.544-555
    • /
    • 2011
  • 본 연구는 농약류에 대하여 구조-활성의 정량적 관계(QSAR)를 이용하여 무지개 송어(학명: Oncorhynchus mykiss)의 급성 독성을 예측-분석하는 과정을 수행하였다. 모델 구현을 위해 사용된 275종의 농약류에 대한 수중 독성(96h $LC_{50}$) 값은 DEMETRA프로젝트의 데이터를 사용하였다. 예측 모델에 사용된 2차원 분자 표현자는 PreADMET프로그램으로부터 계산을 하였고, 선형 (다중 선형 회귀 방법)모델과 비선형(서포트 벡터 머신, 인공 신경망) 학습 방법들은 실험값과 예측값의 적합도를 고려하여 최적화 되었다. 데이터 전처리 과정을 거친 뒤에, 5묶음 교차 검증과정을 포함한 모집단 기반 전진 선택법을 통해서 각 학습 방법의 최적의 표현자 집합을 결정하였다. 가장 좋은 결과는 SVM 방법 ($R^2_{CV}$=0.677, RMSECV=0.887, MSECV=0.674) 이었고, EU의 규제 기준에 따른 분류에서는 87%의 정확도를 나타내었다. MLR방법을 통해서는 무지개 송어의 급성 독성에 대하여 독성을 나타내는 농약류의 구조적 특징과 지질 층과의 상호작용을 설명할 수 있었다. 개발된 모든 모델들은 5묶음 교차 검증과 Y-scrambling test을 통해 검증되었다.