• 제목/요약/키워드: Short-term memory

검색결과 747건 처리시간 0.025초

PLC 디지털 제어 신호를 통한 LSTM기반의 이산 생산 공정의 실시간 고장 상태 감지 (Real-Time Fault Detection in Discrete Manufacturing Systems Via LSTM Model based on PLC Digital Control Signals)

  • 송용욱;백수정
    • 산업경영시스템학회지
    • /
    • 제44권2호
    • /
    • pp.115-123
    • /
    • 2021
  • A lot of sensor and control signals is generated by an industrial controller and related internet-of-things in discrete manufacturing system. The acquired signals are such records indicating whether several process operations have been correctly conducted or not in the system, therefore they are usually composed of binary numbers. For example, once a certain sensor turns on, the corresponding value is changed from 0 to 1, and it means the process is finished the previous operation and ready to conduct next operation. If an actuator starts to move, the corresponding value is changed from 0 to 1 and it indicates the corresponding operation is been conducting. Because traditional fault detection approaches are generally conducted with analog sensor signals and the signals show stationary during normal operation states, it is not simple to identify whether the manufacturing process works properly via conventional fault detection methods. However, digital control signals collected from a programmable logic controller continuously vary during normal process operation in order to show inherent sequence information which indicates the conducting operation tasks. Therefore, in this research, it is proposed to a recurrent neural network-based fault detection approach for considering sequential patterns in normal states of the manufacturing process. Using the constructed long short-term memory based fault detection, it is possible to predict the next control signals and detect faulty states by compared the predicted and real control signals in real-time. We validated and verified the proposed fault detection methods using digital control signals which are collected from a laser marking process, and the method provide good detection performance only using binary values.

딥러닝 알고리즘 기반의 초미세먼지(PM2.5) 예측 성능 비교 분석 (Comparison and analysis of prediction performance of fine particulate matter(PM2.5) based on deep learning algorithm)

  • 김영희;장관종
    • 융합정보논문지
    • /
    • 제11권3호
    • /
    • pp.7-13
    • /
    • 2021
  • 본 연구는 딥러닝(Deep Learning) 알고리즘 GAN 모델을 기반으로 초미세먼지(PM2.5) 인공지능 예측시스템을 개발한다. 실험 데이터는 시계열 축으로 생성된 온도, 습도, 풍속, 기압의 기상변화와 SO2, CO, O3, NO2, PM10와 같은 대기오염물질 농도와 밀접한 관련이 있다. 데이터 특성상, 현재시간 농도가 이전시간 농도에 영향을 받기 때문에 반복지도학습(Recursive Supervised Learning) 예측 모델을 적용하였다. 기존 모델인 CNN, LSTM의 정확도(Accuracy)를 비교분석을 위해 관측값(Observation Value)과 예측값(Prediction Value)간의 차이를 분석하고 시각화했다. 성능분석 결과 제안하는 GAN이 LSTM 대비 평가항목 RMSE, MAPE, IOA에서 각각 15.8%, 10.9%, 5.5%로 향상된 것을 확인하였다.

차량 센서 데이터 조합을 통한 딥러닝 기반 차량 이상탐지 (Deep Learning-Based Vehicle Anomaly Detection by Combining Vehicle Sensor Data)

  • 김송희;김선혜;윤병운
    • 한국산학기술학회논문지
    • /
    • 제22권3호
    • /
    • pp.20-29
    • /
    • 2021
  • 4차산업혁명 시대에는 대량의 데이터를 학습하여 예측과 분류의 정확성을 향상시킬 수 있는 인공지능의 활용이 핵심적이다. 그러나, 기존 이상탐지를 위한 방법은 제한된 데이터를 다루는 전통적인 통계 방법에 의존하고 있어, 정확한 이상탐지가 어렵다. 그러므로, 본 연구는 인공지능 기반 이상탐지 방법을 제시하여 예측 정확도를 높이고, 새로운 데이터 패턴을 정의하는 것을 목적으로 한다. 특히, 자동차의 경우 공회전 기간의 센서 데이터가 이상 탐지에 활용될 수 있다는 관점에서 데이터를 수집하고 분석하였다. 이를 위해, 예측 모델에 입력되는 데이터의 적정 시간 길이를 결정하고, 공회전 기간 데이터와 전체 운행 데이터의 분석 결과를 비교하며, 다양한 센서 데이터 조합에 의한 최적 예측 방법을 도출하였다. 또한, 인공지능 방법으로 선택된 CNN의 예측 정확성을 검증하기 위해 LSTM 결과와 비교하였다. 분석 결과, 공회전 데이터를 이용하고, 공회전 기간보다 1.5배 많은 기간의 데이터를 이용하며 LSTM보다는 CNN을 활용하는 것이 더 좋은 예측결과를 보였다.

오픈소스 기반 지도 서비스를 이용한 딥러닝 실시간 가상 전력수요 예측 가시화 웹 시스템 (Development of Data Visualized Web System for Virtual Power Forecasting based on Open Sources based Location Services using Deep Learning)

  • 이정휘;김동근
    • 한국정보통신학회논문지
    • /
    • 제25권8호
    • /
    • pp.1005-1012
    • /
    • 2021
  • 최근 웹에서 지도(Map)를 이용한 Location based Services 기반의 다양한 위치정보시스템 활용이 점점 확대되고 있으며 에너지 절약을 위한 대안으로 전력 수요 현황을 실시간으로 확인할 수 있는 모니터링 시스템의 필요성이 요구되고 있다. 본 연구에서는 딥러닝과 같은 기계학습을 이용하여 전력 수요 데이터의 특성을 분석하고 예측하는 모듈을 개발하여 지역 단위별 전력 에너지 사용 현황과 예측 추세를 실시간으로 확인할 수 있는 오픈소스 기반 지도 서비스를 이용한 딥러닝 실시간 가상 전력수요예측 웹 시스템을 개발하였다. 특히 제안한 시스템은 LSTM 딥러닝 모델을 이용하여 지역적으로 전력 수요량과 예측 분석이 실시간으로 가능하고 분석된 정보를 가시화하여 제공한다. 향후 제안된 시스템을 통해 지역별 에너지의 수급 및 예측 현황을 확인하고 분석하는데 활용될 수 있을 뿐만 아니라 다른 산업 에너지에도 적용될 수 있을 것이다.

머신러닝을 활용한 결측 부동산 매매 지수의 추정에 대한 연구 (A Study on the Index Estimation of Missing Real Estate Transaction Cases Using Machine Learning)

  • 김경민;김규석;남대식
    • 한국경제지리학회지
    • /
    • 제25권1호
    • /
    • pp.171-181
    • /
    • 2022
  • 부동산 시장 분석에 있어 기본이 되는 정량적 데이터는 부동산 가격 지수이다. OECD와 같은 국제기구에서는 국가별 부동산 가격 지수를 공표하고, 한국부동산원에서는 광역시 단위와 시군구 단위의 지수를 산출한다. 그런데 공간단위를 시군구보다 정교한 동단위, 아파트 단지 단위로 설정하는 경우, 여러 문제점을 맞이하게 된다. 대표적인 문제는 결측치이다. 공간적 범위를 좁힐수록 단위 기간에 따라 거래가 적거나 아예 존재하지 않는 경우가 존재하기에 이 경우에는 지수의 산출이 불가능한 결측치가 발생할 수 있다. 본 연구에서는 지도학습 기반의 머신러닝 기법을 활용하여 특정 범위와 기간에 거래가 존재하지 않아 발생할 수 있는 결측치를 보완하는 기법을 제안한다. 본 모형을 통해 부동산 매매 지수의 실제값이 존재하는 것들의 예측을 통해 그 정확도를 검증하고 결측치가 발생한 것들의 예측도 해 볼 수 있었다.

비트코인 가격 예측을 위한 LSTM 모델의 Hyper-parameter 최적화 연구 (A Study on the Hyper-parameter Optimization of Bitcoin Price Prediction LSTM Model)

  • 김준호;성한울
    • 한국융합학회논문지
    • /
    • 제13권4호
    • /
    • pp.17-24
    • /
    • 2022
  • 비트코인은 정부나 금융기관에 의존되어 있지 않은 전자 거래를 지향하며 만들어진 peer-to-peer 방식의 암호화폐이다. 비트코인은 최초 발행 이후 거대한 블록체인 금융 시장을 생성했고, 이에 따라 기계 학습을 이용한 비트코인 가격 데이터를 예측하는 연구들이 활발해졌다. 그러나 기계 학습 연구의 비효율적인 Hyper-parameter 최적화 과정이 연구 진행에 있어 비용적인 측면을 악화시키고 있다. 본 논문은 LSTM(Long Short-Term Memory) 층을 사용하는 비트코인 가격 예측 모델에서 가장 대표적인 Hyper-parameter 중 Timesteps, LSTM 유닛의 수, 그리고 Dropout 비율의 전체 조합을 구성하고 각각의 조합에 대한 예측 성능을 측정하는 실험을 통해 정확한 비트코인 가격 예측을 위한 Hyper-parameter 최적화의 방향성을 분석하고 제시한다.

통계적 및 인공지능 모형 기반 태양광 발전량 예측모델 비교 및 재생에너지 발전량 예측제도 정산금 분석 (Comparison of solar power prediction model based on statistical and artificial intelligence model and analysis of revenue for forecasting policy)

  • 이정인;박완기;이일우;김상하
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.355-363
    • /
    • 2022
  • 우리나라는 2050년 탄소중립을 목표로 신재생에너지 중심으로 에너지 공급원을 전환하고 확대하는 계획을 추진 중이다. 신재생에너지의 간헐적 특성으로 에너지 공급이 불안정성이 커짐에 따라 정확한 신재생에너지 발전량 예측의 중요성이 함께 커지고 있다. 이에 따라 정부는 신재생에너지를 집합화하여 관리하기 위한 소규모 전력중개시장을 개설하였고, 재생에너지 발전량 예측제도를 도입하여 예측정확도에 따라 정산금을 지급하는 제도를 시행 중이다. 본 논문에서는 우리나라 신재생에너지 전원의 대부분을 차지하는 태양광 발전에 대하여 통계적 및 인공지능 모형을 이용하여 예측모델을 구현하였으며, 각 모형의 예측정확도 결과를 비교 분석하였다. 비교 모델 중에서 CNN-LSTM(Convolutional Long Short-Term Memory Neural Networks) 모형이 가장 높은 성능을 가짐을 확인하였다. 예측정확도에 따른 예측제도 정산금 수익을 추정해보았고, 예측보유 기술 수준에 따라 수익 편차가 24% 정도 커질 수 있음을 확인하였다.

A novel method for generation and prediction of crack propagation in gravity dams

  • Zhang, Kefan;Lu, Fangyun;Peng, Yong;Li, Xiangyu
    • Structural Engineering and Mechanics
    • /
    • 제81권6호
    • /
    • pp.665-675
    • /
    • 2022
  • The safety problems of giant hydraulic structures such as dams caused by terrorist attacks, earthquakes, and wars often have an important impact on a country's economy and people's livelihood. For the national defense department, timely and effective assessment of damage to or impending damage to dams and other structures is an important issue related to the safety of people's lives and property. In the field of damage assessment and vulnerability analysis, it is usually necessary to give the damage assessment results within a few minutes to determine the physical damage (crack length, crater size, etc.) and functional damage (decreased power generation capacity, dam stability descent, etc.), so that other defense and security departments can take corresponding measures to control potential other hazards. Although traditional numerical calculation methods can accurately calculate the crack length and crater size under certain combat conditions, it usually takes a long time and is not suitable for rapid damage assessment. In order to solve similar problems, this article combines simulation calculation methods with machine learning technology interdisciplinary. First, the common concrete gravity dam shape was selected as the simulation calculation object, and XFEM (Extended Finite Element Method) was used to simulate and calculate 19 cracks with different initial positions. Then, an LSTM (Long-Short Term Memory) machine learning model was established. 15 crack paths were selected as the training set and others were set for test. At last, the LSTM model was trained by the training set, and the prediction results on the crack path were compared with the test set. The results show that this method can be used to predict the crack propagation path rapidly and accurately. In general, this article explores the application of machine learning related technologies in the field of mechanics. It has broad application prospects in the fields of damage assessment and vulnerability analysis.

A Systems Engineering Approach for Predicting NPP Response under Steam Generator Tube Rupture Conditions using Machine Learning

  • Tran Canh Hai, Nguyen;Aya, Diab
    • 시스템엔지니어링학술지
    • /
    • 제18권2호
    • /
    • pp.94-107
    • /
    • 2022
  • Accidents prevention and mitigation is the highest priority of nuclear power plant (NPP) operation, particularly in the aftermath of the Fukushima Daiichi accident, which has reignited public anxieties and skepticism regarding nuclear energy usage. To deal with accident scenarios more effectively, operators must have ample and precise information about key safety parameters as well as their future trajectories. This work investigates the potential of machine learning in forecasting NPP response in real-time to provide an additional validation method and help reduce human error, especially in accident situations where operators are under a lot of stress. First, a base-case SGTR simulation is carried out by the best-estimate code RELAP5/MOD3.4 to confirm the validity of the model against results reported in the APR1400 Design Control Document (DCD). Then, uncertainty quantification is performed by coupling RELAP5/MOD3.4 and the statistical tool DAKOTA to generate a large enough dataset for the construction and training of neural-based machine learning (ML) models, namely LSTM, GRU, and hybrid CNN-LSTM. Finally, the accuracy and reliability of these models in forecasting system response are tested by their performance on fresh data. To facilitate and oversee the process of developing the ML models, a Systems Engineering (SE) methodology is used to ensure that the work is consistently in line with the originating mission statement and that the findings obtained at each subsequent phase are valid.

Consistency check algorithm for validation and re-diagnosis to improve the accuracy of abnormality diagnosis in nuclear power plants

  • Kim, Geunhee;Kim, Jae Min;Shin, Ji Hyeon;Lee, Seung Jun
    • Nuclear Engineering and Technology
    • /
    • 제54권10호
    • /
    • pp.3620-3630
    • /
    • 2022
  • The diagnosis of abnormalities in a nuclear power plant is essential to maintain power plant safety. When an abnormal event occurs, the operator diagnoses the event and selects the appropriate abnormal operating procedures and sub-procedures to implement the necessary measures. To support this, abnormality diagnosis systems using data-driven methods such as artificial neural networks and convolutional neural networks have been developed. However, data-driven models cannot always guarantee an accurate diagnosis because they cannot simulate all possible abnormal events. Therefore, abnormality diagnosis systems should be able to detect their own potential misdiagnosis. This paper proposes a rulebased diagnostic validation algorithm using a previously developed two-stage diagnosis model in abnormal situations. We analyzed the diagnostic results of the sub-procedure stage when the first diagnostic results were inaccurate and derived a rule to filter the inconsistent sub-procedure diagnostic results, which may be inaccurate diagnoses. In a case study, two abnormality diagnosis models were built using gated recurrent units and long short-term memory cells, and consistency checks on the diagnostic results from both models were performed to detect any inconsistencies. Based on this, a re-diagnosis was performed to select the label of the second-best value in the first diagnosis, after which the diagnosis accuracy increased. That is, the model proposed in this study made it possible to detect diagnostic failures by the developed consistency check of the sub-procedure diagnostic results. The consistency check process has the advantage that the operator can review the results and increase the diagnosis success rate by performing additional re-diagnoses. The developed model is expected to have increased applicability as an operator support system in terms of selecting the appropriate AOPs and sub-procedures with re-diagnosis, thereby further increasing abnormal event diagnostic accuracy.