• Title/Summary/Keyword: MachineLearning

Search Result 5,657, Processing Time 0.04 seconds

Integration of Blockchain and Cloud Computing in Telemedicine and Healthcare

  • Asma Albassam;Fatima Almutairi;Nouf Majoun;Reem Althukair;Zahra Alturaiki;Atta Rahman;Dania AlKhulaifi;Maqsood Mahmud
    • International Journal of Computer Science & Network Security
    • /
    • v.23 no.6
    • /
    • pp.17-26
    • /
    • 2023
  • Blockchain technology has emerged as one of the most crucial solutions in numerous industries, including healthcare. The combination of blockchain technology and cloud computing results in improving access to high-quality telemedicine and healthcare services. In addition to developments in healthcare, the operational strategy outlined in Vision 2030 is extremely essential to the improvement of the standard of healthcare in Saudi Arabia. The purpose of this survey is to give a thorough analysis of the current state of healthcare technologies that are based on blockchain and cloud computing. We highlight some of the unanswered research questions in this rapidly expanding area and provide some context for them. Furthermore, we demonstrate how blockchain technology can completely alter the medical field and keep health records private; how medical jobs can detect the most critical, dangerous errors with blockchain industries. As it contributes to develop concerns about data manipulation and allows for a new kind of secure data storage pattern to be implemented in healthcare especially in telemedicine fields is discussed diagrammatically.

Construction of Artificial Intelligence Training Platform for Machine Learning Based on Web Radiology_CDM (Web Radiology_CDM기반 기계학습을 위한 인공지능 학습 플랫폼 구축)

  • Noh, Si-Hyeong;Kim, SeungJin;Kim, Ji-Eon;Lee, Chungsub;Kim, Tae-Hoon;Kim, KyungWon;Kim, Tae-Gyu;Yoon, Kwon-Ha;Jeong, Chang-Won
    • Annual Conference of KIPS
    • /
    • 2020.05a
    • /
    • pp.487-489
    • /
    • 2020
  • 인공지능 기술을 도입한 의료분야에서 진단 및 예측과 연계한 임상의사결정지원 시스템(CDSS)에 관련된 연구가 활발하게 진행되고 있다. 특히, 인공지능 기술 적용에 가장 많은 이슈를 일으키고 있는 의료영상기반의 질환진단연구가 다양한 제품으로 출시되고 있는 실정이다. 그러나 의료영상 데이터는 일관되지 않은 데이터들로 이루어져 있으며, 그것을 정제하여 연구에 사용하기 위해서는 상당한 시간이 필요한 것이 현실이다. 본 논문에서는 익명화된 데이터를 정제하여 인공지능 연구에 사용할 수 있는 표준화된 데이터 셋을 만들고, 그 데이터를 기반으로 인공지능 알고리즘 개발 연구를 지원하기 위한 원스톱 인공지능학습 플랫폼에 대하여 기술한다. 이를 위해 전체 인공지능 연구프로세스를 보이고 이에 따라 학습을 위한 데이터셋 생성과 인공지능 학습학습용 플랫폼에서 수행되는 수행 과정을 결과로 보인다 제안한 플랫폼을 통해 다양한 영상기반 인공지능 연구에 활용될 것으로 기대하고 있다.

Development of machine learning framework to inverse-track a contaminant source of hazardous chemicals in rivers (하천에 유입된 유해화학물질의 역추적을 위한 기계학습 프레임워크 개발)

  • Kwon, Siyoon;Seo, Il Won
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2020.06a
    • /
    • pp.112-112
    • /
    • 2020
  • 하천에서 유해화학물질 유입 사고 발생 시 수환경 피해를 최소화하기 위해 신속한 초기 대응이 필요하다. 따라서, 본 연구에서는 수환경 화학사고 대응 시스템 구축을 위해 하천 실시간 모니터링 지점에서 관측된 유해화학물질의 농도 자료를 이용하여 발생원의 유입 지점과 유입량을 역추적하는 프레임워크를 개발하였다. 본 연구에서 제시하는 프레임워크는 첫 번째로 하천 저장대 모형(Transient Storage Zone Model; TSM)과 HEC-RAS 모형을 이용하여 다양한 유량의 수리 조건에서 화학사고 시나리오를 생성하는 단계, 두번째로 생성된 시나리오의 유입 지점과 유입량에 대한 시간-농도 곡선 (BreakThrough Curve; BTC)을 21개의 곡선특징 (BTC feature)으로 추출하는 단계, 최종적으로 재귀적 특징 선택법(Recursive Feature Elimination; RFE)을 이용하여 의사결정나무 모형, 랜덤포레스트 모형, Xgboost 모형, 선형 서포트 벡터 머신, 커널 서포트 벡터 머신 그리고 Ridge 모형에 대한 모형별 주요 특징을 학습하고 성능을 비교하여 각각 유입 위치와 유입 질량 예측에 대한 최적 모형 및 특징 조합을 제시하는 단계로 구축하였다. 또한, 현장 적용성 제고를 위해 시간-농도 곡선을 2가지 경우 (Whole BTC와 Fractured BTC)로 가정하여 기계학습 모형을 학습시켜 모의결과를 비교하였다. 제시된 프레임워크의 검증을 위해서 낙동강 지류인 감천에 적용하여 모형을 구축하고 시나리오 자료 기반 검증과 Rhodamine WT를 이용한 추적자 실험자료를 이용한 검증을 수행하였다. 기계학습 모형들의 비교 검증 결과, 각 모형은 가중항 기반과 불순도 감소량 기반 특징 중요도 산출 방식에 따라 주요 특징이 상이하게 산출되었으며, 전체 시간-농도 곡선 (WBTC)과 부분 시간-농도 곡선 (FBTC)별 최적 모형도 다르게 산출되었다. 유입 위치 정확도 및 유입 질량 예측에 대한 R2는 대부분의 모형이 90% 이상의 우수한 결과를 나타냈다.

  • PDF

Machine Learning Method for Improving WRF-Hydro streamflow prediction (WRF-Hydro 하천수 예측 개선을 위한 머신러닝 기법의 활용)

  • Cho, Kyeungwoo;Choi, Suyeon;Chi, Haewon;Kim, Yeonjoo
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2020.06a
    • /
    • pp.63-63
    • /
    • 2020
  • 최근 머신러닝 기술의 발전에 따라 비선형 시계열자료에 대한 예측이 가능해졌으며, 기존의 과정기반모형을 대체하여 지하수, 하천수 예측 등 다양한 수문분야에 활용되고 있다. 본 연구에서는 기존의 연구들과 달리 과정기반모형을 이용한 하천수 모의결과를 개선하기 위해 과정기반모형과 결합하는 방식으로 머신러닝 기술을 활용하였다. 머신러닝 기술을 통해 관측값과 모의값 간의 차이를 예측하고 과정기반모형의 모의결과에 반영함으로써 관측값을 정확히 재현할 수 있도록 하는 시스템을 구축하고 평가하였다. 과정기반모형으로는 Weather Research and Forecasting model-Hydrological modeling system (WRF-Hydro)을 소양강 유역을 대상으로 구축하였다. 머신러닝 모형으로는 순환 신경망 중 하나인 Long Short-Term Memory (LSTM) 신경망을 이용하여 장기시계열예측이 가능하게 하였다(WRF-Hydro-LSTM). 머신러닝 모형은 2013년부터 2017년까지의 기상자료 및 유입량 잔차를 이용하여 학습시키고, 2018년 기상자료를 이용하여 예상되는 유입량 잔차를 모의하였다. 모의된 잔차를 WRF-Hydro 모의결과에 반영시켜 최종 유입량 모의값을 보정하였다. 또한, 연구에서 제안된 새로운 방법론의 성능을 비교평가하기 위해 머신러닝 단독 모형으로 유입량을 학습 후 모의하였다(LSTM-only). 상관계수와 Nash-Sutcliffe 효율계수(NSE)를 사용해 평가한 결과, LSTM을 이용한 두 방법(WRF-Hydro-LSTM과 LSTM-only) 모두 기존의 과정기반모형(WRF-Hydro-only)에 비해 높은 정확도의 하천수 모의가 가능했으며, PBIAS 지수를 사용하여 평가한 결과, LSTM을 단독으로 사용하였을 때보다 WRF-Hydro와 결합했을 때 더 관측값과 가까운 모의가 가능함을 확인할 수 있었다.

  • PDF

Evaluation of Rainfall Erosivity Factor Estimation Using Machine and Deep Learning Models (머신러닝 및 딥러닝을 활용한 강우침식능인자 예측 평가)

  • Lee, Jimin;Lee, Seoro;Lee, Gwanjae;Kim, Jonggun;Lim, Kyoung Jae
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.450-450
    • /
    • 2021
  • 기후변화 보고서에 따르면 집중 호우의 강도 및 빈도 증가가 향후 몇 년동안 지속될 것이라 제시하였다. 이러한 집중호우가 빈번히 발생하게 된다면 강우 침식성이 증가하여 표토 침식에 더 취약하게 발생된다. Universal Soil Loss Equation (USLE) 입력 매개 변수 중 하나인 강우침식능인자는 토양 유실을 예측할때 강우 강도의 미치는 영향을 제시하는 인자이다. 선행 연구에서 USLE 방법을 사용하여 강우침식능인자를 산정하였지만, 60분 단위 강우자료를 이용하였기 때문에 정확한 30분 최대 강우강도 산정을 고려하지 못하는 한계점이 있다. 본 연구의 목적은 강우침식능인자를 이전의 진행된 방법보다 더 빠르고 정확하게 예측하는 머신러닝 모델을 개발하며, 총 월별 강우량, 최대 일 강우량 및 최대 시간별 강우량 데이터만 있어도 산정이 가능하도록 하였다. 이를 위해 본 연구에서는 강우침식능인자의 산정 값의 정확도를 높이기 위해 1분 간격 강우 데이터를 사용하며, 최근 강우 패턴을 반영하기 위해서 2013-2019년 자료로 이용했다. 우선, 월별 특성을 파악하기 위해 USLE 계산 방법을 사용하여 월별 강우침식능인자를 산정하였고, 국내 50개 지점을 대상으로 계산된 월별 강우침식능인자를 실측 값으로 정하여, 머신러닝 모델을 통하여 강우침식능인자 예측하도록 학습시켜 분석하였다. 이 연구에 사용된 머신러닝 모델들은 Decision Tree, Random Forest, K-Nearest Neighbors, Gradient Boosting, eXtreme Gradient Boost 및 Deep Neural Network을 이용하였다. 또한, 교차 검증을 통해서 모델 중 Deep Neural Network이 강우침식능인자 예측 정확도가 가장 높게 산정하였다. Deep Neural Network은 Nash-Sutcliffe Efficiency (NSE) 와 Coefficient of determination (R2)의 결과값이 0.87로서 모델의 예측성을 입증하였으며, 검증 모델을 테스트 하기 위해 국내 6개 지점을 무작위로 선별하여 강우침식능인자를 분석하였다. 본 연구 결과에서 나온 Deep Neural Network을 이용하면, 훨씬 적은 노력과 시간으로 원하는 지점에서 월별 강우침식능인자를 예측할 수 있으며, 한국 강우 패턴을 효율적으로 분석 할 수 있을 것이라 판단된다. 이를 통해 향후 토양 침식 위험을 지표화하는 것뿐만 아니라 토양 보전 계획을 수립할 수 있으며, 위험 지역을 우선적으로 선별하고 제시하는데 유용하게 사용 될 것이라 사료된다.

  • PDF

Effective Drought Prediction Based on Machine Learning (머신러닝 기반 효과적인 가뭄예측)

  • Kim, Kyosik;Yoo, Jae Hwan;Kim, Byunghyun;Han, Kun-Yeun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.326-326
    • /
    • 2021
  • 장기간에 걸쳐 넓은 지역에 대해 발생하는 가뭄을 예측하기위해 많은 학자들의 기술적, 학술적 시도가 있어왔다. 본 연구에서는 복잡한 시계열을 가진 가뭄을 전망하는 방법 중 시나리오에 기반을 둔 가뭄전망 방법과 실시간으로 가뭄을 예측하는 비시나리오 기반의 방법 등을 이용하여 미래 가뭄전망을 실시했다. 시나리오에 기반을 둔 가뭄전망 방법으로는, 3개월 GCM(General Circulation Model) 예측 결과를 바탕으로 2009년도 PDSI(Palmer Drought Severity Index) 가뭄지수를 산정하여 가뭄심도에 대한 단기예측을 실시하였다. 또, 통계학적 방법과 물리적 모델(Physical model)에 기반을 둔 확정론적 수치해석 방법을 이용하여 비시나리오 기반 가뭄을 예측했다. 기존 가뭄을 통계학적 방법으로 예측하기 위해서 시도된 대표적인 방법으로 ARIMA(Autoregressive Integrated Moving Average) 모델의 예측에 대한 한계를 극복하기위해 서포트 벡터 회귀(support vector regression, SVR)와 웨이블릿(wavelet neural network) 신경망을 이용해 SPI를 측정하였다. 최적모델구조는 RMSE(root mean square error), MAE(mean absolute error) 및 R(correlation Coefficient)를 통해 선정하였고, 1-6개월의 선행예보 시간을 갖고 가뭄을 전망하였다. 그리고 SPI를 이용하여, 마코프 연쇄(Markov chain) 및 대수선형모델(log-linear model)을 적용하여 SPI기반 가뭄예측의 정확도를 검증하였으며, 터키의 아나톨리아(Anatolia) 지역을 대상으로 뉴로퍼지모델(Neuro-Fuzzy)을 적용하여 1964-2006년 기간의 월평균 강수량과 SPI를 바탕으로 가뭄을 예측하였다. 가뭄 빈도와 패턴이 불규칙적으로 변하며 지역별 강수량의 양극화가 심화됨에 따라 가뭄예측의 정확도를 높여야 하는 요구가 커지고 있다. 본 연구에서는 복잡하고 비선형성으로 이루어진 가뭄 패턴을 기상학적 가뭄의 정도를 나타내는 표준강수증발지수(SPEI, Standardized Precipitation Evapotranspiration Index)인 월SPEI와 일SPEI를 기계학습모델에 적용하여 예측개선 모형을 개발하고자 한다.

  • PDF

Spatio-temporal potential future drought prediction using machine learning for time series data forecast in Abomey-calavi (South of Benin)

  • Agossou, Amos;Kim, Do Yeon;Yang, Jeong-Seok
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.268-268
    • /
    • 2021
  • Groundwater resource is mostly used in Abomey-calavi (southern region of Benin) as main source of water for domestic, industrial, and agricultural activities. Groundwater intake across the region is not perfectly controlled by a network due to the presence of many private boreholes and traditional wells used by the population. After some decades, this important resource is becoming more and more vulnerable and needs more attention. For a better groundwater management in the region of Abomey-calavi, the present study attempts to predict a future probable groundwater drought using Recurrent Neural Network (RNN) for future groundwater level prediction. The RNN model was created in python using jupyter library. Six years monthly groundwater level data was used for the model calibration, two years data for the model test and the model was finaly used to predict two years future groundwater level (years 2020 and 2021). GRI was calculated for 9 wells across the area from 2012 to 2021. The GRI value in dry season (by the end of March) showed groundwater drought for the first time during the study period in 2014 as severe and moderate; from 2015 to 2021 it shows only moderate drought. The rainy season in years 2020 and 2021 is relatively wet and near normal. GRI showed no drought in rainy season during the study period but an important diminution of groundwater level between 2012 and 2021. The Pearson's correlation coefficient calculated between GRI and rainfall from 2005 to 2020 (using only three wells with times series long period data) proved that the groundwater drought mostly observed in dry season is not mainly caused by rainfall scarcity (correlation values between -0.113 and -0.083), but this could be the consequence of an overexploitation of the resource which caused the important spatial and temporal diminution observed from 2012 to 2021.

  • PDF

A Research on the Method of Automatic Metadata Generation of Video Media for Improvement of Video Recommendation Service (영상 추천 서비스의 개선을 위한 영상 미디어의 메타데이터 자동생성 방법에 대한 연구)

  • You, Yeon-Hwi;Park, Hyo-Gyeong;Yong, Sung-Jung;Moon, Il-Young
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.10a
    • /
    • pp.281-283
    • /
    • 2021
  • The representative companies mentioned in the recommendation service in the domestic OTT(Over-the-top media service) market are YouTube and Netflix. YouTube, through various methods, started personalized recommendations in earnest by introducing an algorithm to machine learning that records and uses users' viewing time from 2016. Netflix categorizes users by collecting information such as the user's selected video, viewing time zone, and video viewing device, and groups people with similar viewing patterns into the same group. It records and uses the information collected from the user and the tag information attached to the video. In this paper, we propose a method to improve video media recommendation by automatically generating metadata of video media that was written by hand.

  • PDF

An optimized ANFIS model for predicting pile pullout resistance

  • Yuwei Zhao;Mesut Gor;Daria K. Voronkova;Hamed Gholizadeh Touchaei;Hossein Moayedi;Binh Nguyen Le
    • Steel and Composite Structures
    • /
    • v.48 no.2
    • /
    • pp.179-190
    • /
    • 2023
  • Many recent attempts have sought accurate prediction of pile pullout resistance (Pul) using classical machine learning models. This study offers an improved methodology for this objective. Adaptive neuro-fuzzy inference system (ANFIS), as a popular predictor, is trained by a capable metaheuristic strategy, namely equilibrium optimizer (EO) to predict the Pul. The used data is collected from laboratory investigations in previous literature. First, two optimal configurations of EO-ANFIS are selected after sensitivity analysis. They are next evaluated and compared with classical ANFIS and two neural-based models using well-accepted accuracy indicators. The results of all five models were in good agreement with laboratory Puls (all correlations > 0.99). However, it was shown that both EO-ANFISs not only outperform neural benchmarks but also enjoy a higher accuracy compared to the classical version. Therefore, utilizing the EO is recommended for optimizing this predictive tool. Furthermore, a comparison between the selected EO-ANFISs, where one employs a larger population, revealed that the model with the population size of 75 is more efficient than 300. In this relation, root mean square error and the optimization time for the EO-ANFIS (75) were 19.6272 and 1715.8 seconds, respectively, while these values were 23.4038 and 9298.7 seconds for EO-ANFIS (300).

Infrastructure Anomaly Analysis for Data-center Failure Prevention: Based on RRCF and Prophet Ensemble Analysis (데이터센터 장애 예방을 위한 인프라 이상징후 분석: RRCF와 Prophet Ensemble 분석 기반)

  • Hyun-Jong Kim;Sung-Keun Kim;Byoung-Whan Chun;Kyong-Bog, Jin;Seung-Jeong Yang
    • The Journal of Bigdata
    • /
    • v.7 no.1
    • /
    • pp.113-124
    • /
    • 2022
  • Various methods using machine learning and big data have been applied to prevent failures in Data Centers. However, there are many limitations to referencing individual equipment-based performance indicators or to being practically utilized as an approach that does not consider the infrastructure operating environment. In this study, the performance indicators of individual infrastructure equipment are integrated monitoring and the performance indicators of various equipment are segmented and graded to make a single numerical value. Data pre-processing based on experience in infrastructure operation. And an ensemble of RRCF (Robust Random Cut Forest) analysis and Prophet analysis model led to reliable analysis results in detecting anomalies. A failure analysis system was implemented to facilitate the use of Data Center operators. It can provide a preemptive response to Data Center failures and an appropriate tuning time.