• Title/Summary/Keyword: Machine Learning Methodologies

검색결과 86건 처리시간 0.195초

The Analysis of Flatland Challenge Winners' Multi-agent Methodologies

  • Choi, BumKyu;Kim, Jong-Kook
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.369-372
    • /
    • 2021
  • Scheduling the movements of trains in the modern railway system is becoming essential and important. Swiss Federal Railway Company (SBB) and machine learning researchers began collaborating to make a simulation environment and held a Flatland challenge. In this paper, the methodologies of the winners of this competition are analyzed to achieve insight and research trends. This problem is similar to the Multi-Agent Path Finding (MAPF) and Vehicle Rescheduling Problem (VRSP). The potential of the attempted methods from the Flatland challenge to be applied to various transportation systems as well as railways is discussed.

증류 기반 연합 학습에서 로짓 역전을 통한 개인 정보 취약성에 관한 연구 (A Survey on Privacy Vulnerabilities through Logit Inversion in Distillation-based Federated Learning)

  • 윤수빈;조윤기;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.711-714
    • /
    • 2024
  • In the dynamic landscape of modern machine learning, Federated Learning (FL) has emerged as a compelling paradigm designed to enhance privacy by enabling participants to collaboratively train models without sharing their private data. Specifically, Distillation-based Federated Learning, like Federated Learning with Model Distillation (FedMD), Federated Gradient Encryption and Model Sharing (FedGEMS), and Differentially Secure Federated Learning (DS-FL), has arisen as a novel approach aimed at addressing Non-IID data challenges by leveraging Federated Learning. These methods refine the standard FL framework by distilling insights from public dataset predictions, securing data transmissions through gradient encryption, and applying differential privacy to mask individual contributions. Despite these innovations, our survey identifies persistent vulnerabilities, particularly concerning the susceptibility to logit inversion attacks where malicious actors could reconstruct private data from shared public predictions. This exploration reveals that even advanced Distillation-based Federated Learning systems harbor significant privacy risks, challenging the prevailing assumptions about their security and underscoring the need for continued advancements in secure Federated Learning methodologies.

Structural Crack Detection Using Deep Learning: An In-depth Review

  • Safran Khan;Abdullah Jan;Suyoung Seo
    • 대한원격탐사학회지
    • /
    • 제39권4호
    • /
    • pp.371-393
    • /
    • 2023
  • Crack detection in structures plays a vital role in ensuring their safety, durability, and reliability. Traditional crack detection methods sometimes need significant manual inspections, which are laborious, expensive, and prone to error by humans. Deep learning algorithms, which can learn intricate features from large-scale datasets, have emerged as a viable option for automated crack detection recently. This study presents an in-depth review of crack detection methods used till now, like image processing, traditional machine learning, and deep learning methods. Specifically, it will provide a comparative analysis of crack detection methods using deep learning, aiming to provide insights into the advancements, challenges, and future directions in this field. To facilitate comparative analysis, this study surveys publicly available crack detection datasets and benchmarks commonly used in deep learning research. Evaluation metrics employed to check the performance of different models are discussed, with emphasis on accuracy, precision, recall, and F1-score. Moreover, this study provides an in-depth analysis of recent studies and highlights key findings, including state-of-the-art techniques, novel architectures, and innovative approaches to address the shortcomings of the existing methods. Finally, this study provides a summary of the key insights gained from the comparative analysis, highlighting the potential of deep learning in revolutionizing methodologies for crack detection. The findings of this research will serve as a valuable resource for researchers in the field, aiding them in selecting appropriate methods for crack detection and inspiring further advancements in this domain.

Personalized Diabetes Risk Assessment Through Multifaceted Analysis (PD- RAMA): A Novel Machine Learning Approach to Early Detection and Management of Type 2 Diabetes

  • Gharbi Alshammari
    • International Journal of Computer Science & Network Security
    • /
    • 제23권8호
    • /
    • pp.17-25
    • /
    • 2023
  • The alarming global prevalence of Type 2 Diabetes Mellitus (T2DM) has catalyzed an urgent need for robust, early diagnostic methodologies. This study unveils a pioneering approach to predicting T2DM, employing the Extreme Gradient Boosting (XGBoost) algorithm, renowned for its predictive accuracy and computational efficiency. The investigation harnesses a meticulously curated dataset of 4303 samples, extracted from a comprehensive Chinese research study, scrupulously aligned with the World Health Organization's indicators and standards. The dataset encapsulates a multifaceted spectrum of clinical, demographic, and lifestyle attributes. Through an intricate process of hyperparameter optimization, the XGBoost model exhibited an unparalleled best score, elucidating a distinctive combination of parameters such as a learning rate of 0.1, max depth of 3, 150 estimators, and specific colsample strategies. The model's validation accuracy of 0.957, coupled with a sensitivity of 0.9898 and specificity of 0.8897, underlines its robustness in classifying T2DM. A detailed analysis of the confusion matrix further substantiated the model's diagnostic prowess, with an F1-score of 0.9308, illustrating its balanced performance in true positive and negative classifications. The precision and recall metrics provided nuanced insights into the model's ability to minimize false predictions, thereby enhancing its clinical applicability. The research findings not only underline the remarkable efficacy of XGBoost in T2DM prediction but also contribute to the burgeoning field of machine learning applications in personalized healthcare. By elucidating a novel paradigm that accentuates the synergistic integration of multifaceted clinical parameters, this study fosters a promising avenue for precise early detection, risk stratification, and patient-centric intervention in diabetes care. The research serves as a beacon, inspiring further exploration and innovation in leveraging advanced analytical techniques for transformative impacts on predictive diagnostics and chronic disease management.

머신러닝 기반 고속도로 내 수소충전소 최적입지 선정 연구 (A Study on the Optimal Location Selection for Hydrogen Refueling Stations on a Highway using Machine Learning)

  • 조재혁;김성수
    • 지적과 국토정보
    • /
    • 제51권2호
    • /
    • pp.83-106
    • /
    • 2021
  • 대기오염, 지구온난화 문제 등 환경 문제의 심각성이 대두되면서 청정 연료의 관심이 커지고 있다. 그 중 수소는 기존 화석연료와는 달리 연소 시 부산물로 수분만이 발생하는 대표적인 친환경 에너지원으로 현재 다양한 분야에서 주목을 받고 있다. 물류 분야에서도 수소를 활용한 물류 네트워크를 구축하기 위해 다양한 정책적 노력이 활발히 이루어지고 있다. 이러한 수소 물류 네트워크의 구축에 있어 수소충전소의 입지 결정은 매우 중요한 문제이다. 최근 개발된 수소추진(수소연료전지) 화물차에 수소를 공급하는 충전소는 수소 기반 물류체계가 본격적으로 자리 잡는 데 있어 필수 불가결한 요소이다. 이러한 수소충전소의 최적 입지를 결정하는 선행연구는 대부분 수리적 모형에 기반한 최적화 기법만을 사용하여 수소충전소의 최적 입지를 결정하고자 하였다. 본 연구에서는 기존 연구의 동향과는 차별화하여 최적화 기법의 중요한 투입 변수 중 하나인 충전소 후보지에 대한 공간적 특성을 검토하는 방법으로 머신러닝 모형들을 활용하고 그 적용가능성을 확인하였다. 머신러닝은 다양한 분야에서 우수한 성과를 증명한 기법이지만 수소충전소의 최적 입지를 결정하는 연구 분야에서는 아직 적용된 바가 없다. 이를 위해 본 연구에서는 개별공시지가, 수소공급지와의 거리 등 전국 고속도로 휴게소와 고속도로의 무작위 지점들의 위치와 관련된 변수들을 독립변수로 선정하여 단일 머신러닝 모형과 앙상블 모형을 적용하고 그 성과를 비교하였다. 분석 결과, 랜덤포레스트(Random Forest) 모형이 가장 우수한 성과를 보였으며, 다른 모형들 또한 우수한 분류 성능을 보여 최적 입지 문제에 대해 공간적 특성을 예비적으로 검토하는 방법론으로써 머신러닝의 적용 가능성을 확인할 수 있었다. 따라서 머신러닝 모형은 수소충전소의 최적 입지 결정 분야에서 향후 최적화 기법을 적용한 연구의 예비적 검토 방법론으로 널리 활용할 수 있을 것으로 기대된다.

전이학습 기반 기계번역 사후교정 모델 검증 (The Verification of the Transfer Learning-based Automatic Post Editing Model)

  • 문현석;박찬준;어수경;서재형;임희석
    • 한국융합학회논문지
    • /
    • 제12권10호
    • /
    • pp.27-35
    • /
    • 2021
  • 기계번역 사후교정 (Automatic Post Editing, APE)이란 번역 시스템을 통해 생성한 번역문을 교정하는 연구 분야로, 영어-독일어와 같이 학습데이터가 풍부한 언어쌍을 중심으로 연구가 진행되고 있다. 최근 APE 연구는 전이학습 기반 연구가 주로 이루어지는데, 일반적으로 self supervised learning을 통해 생성된 사전학습 언어모델 혹은 번역모델이 주로 활용된다. 기존 연구에서는 번역모델에 전이학습 시킨 APE모델이 뛰어난 성과를 보였으나, 대용량 언어쌍에 대해서만 이루어진 해당 연구를 저 자원 언어쌍에 곧바로 적용하기는 어렵다. 이에 본 연구에서는 언어 혹은 번역모델의 두 가지 전이학습 전략을 대표적인 저 자원 언어쌍인 한국어-영어 APE 연구에 적용하여 심층적인 모델 검증을 진행하였다. 실험결과 저 자원 언어쌍에서도 APE 학습 이전에 번역을 한차례 학습시키는 것이 유의미하게 APE 성능을 향상시킨다는 것을 확인할 수 있었다.

심층신경망 알고리즘을 이용한 가상환경에서의 멀미 측정 및 분석 (Motion Sickness Measurement and Analysis in Virtual Reality using Deep Neural Networks Algorithm)

  • 정대교;유상봉;장윤
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제25권1호
    • /
    • pp.23-32
    • /
    • 2019
  • 사이버 멀미는 VR 체험 중 발생하는 증상으로, 주로 감각과 인지 시스템 사이의 불일치로 인해 발생하는 것으로 추정된다. 하지만 감각 및 인지 시스템을 객관적으로 측정할 수 있는 방법이 없기 때문에, 사이버 멀미를 측정하는 것은 어렵다. 이를 해결하기 위해 사이버 멀미를 측정하기 위해 다양한 방법론들이 연구되고 있다. 기존의 멀미를 측정하기 위한 방법은 설문방식을 이용하거나, 머신 러닝을 이용하여 뇌파 데이터를 분석하는 방식으로 진행되어 왔다. 하지만 설문을 이용한 방식은 다소 객관성이 떨어지며, 머신 러닝을 사용하는 방식은 아직까지 높은 정확도를 얻은 연구가 부족하다. 본 논문에서는 뇌파 데이터를 Deep Neural Network (DNN) 딥러닝 알고리즘에 적용하여 객관적인 사이버 멀미 측정 방식을 제안한다. 또한 우리는 더 정확한 사이버 멀미 측정 결과를 위하여 딥러닝 네트워크 구조와 뇌파 데이터 전처리 기법을 제안한다. 우리의 접근 방법은 최대 98.88%의 정확도로 사이버 멀미를 측정한다. 또한 우리는 실험에서 사이버 멀미를 유발하는 영상의 특성을 분석한다. 일반적으로 사이버 멀미는 상하 움직임이 심한 화면, 화면의 지속적이고 빠른 전환, 공중에 떠있는 상황에서 발생한다.

기술용어 분산표현을 활용한 특허문헌 분류에 관한 연구 (A Study on Patent Literature Classification Using Distributed Representation of Technical Terms)

  • 최윤수;최성필
    • 한국문헌정보학회지
    • /
    • 제53권2호
    • /
    • pp.179-199
    • /
    • 2019
  • 본 연구의 목적은 특허 문헌 분류에 가장 적합한 방법론을 발견하기 위하여 다양한 자질 추출 방법과 기계학습 및 딥러닝 모델을 살펴보고 실험을 통해 최적의 성능을 제공하는 방법론을 분석하는데 있다. 자질 추출 방법으로는 전통적인 BoW 방법과 분산표현 방식인 워드 임베딩 벡터를 비교 실험하고, 문헌 집합 구축 방식으로는 형태소 분석과 멀티그램을 이용하는 방식을 비교 검토하였다. 또한 전통적인 기계학습 모델과 딥러닝 모델을 이용하여 분류 성능을 검증하였다. 실험 결과, 분산표현 방법과 형태소 분석을 이용한 자질추출 방법을 기반으로 딥러닝 모델을 적용하였을 경우에 분류 성능이 가장 우수한 것으로 판명되었으며 섹션, 클래스, 서브클래스 분류 실험에서 전통적인 기계학습 방법에 비해 각각 5.71%, 18.84%, 21.53% 우수한 분류 성능을 보여주었다.

Deep learning method for compressive strength prediction for lightweight concrete

  • Yaser A. Nanehkaran;Mohammad Azarafza;Tolga Pusatli;Masoud Hajialilue Bonab;Arash Esmatkhah Irani;Mehdi Kouhdarag;Junde Chen;Reza Derakhshani
    • Computers and Concrete
    • /
    • 제32권3호
    • /
    • pp.327-337
    • /
    • 2023
  • Concrete is the most widely used building material, with various types including high- and ultra-high-strength, reinforced, normal, and lightweight concretes. However, accurately predicting concrete properties is challenging due to the geotechnical design code's requirement for specific characteristics. To overcome this issue, researchers have turned to new technologies like machine learning to develop proper methodologies for concrete specification. In this study, we propose a highly accurate deep learning-based predictive model to investigate the compressive strength (UCS) of lightweight concrete with natural aggregates (pumice). Our model was implemented on a database containing 249 experimental records and revealed that water, cement, water-cement ratio, fine-coarse aggregate, aggregate substitution rate, fine aggregate replacement, and superplasticizer are the most influential covariates on UCS. To validate our model, we trained and tested it on random subsets of the database, and its performance was evaluated using a confusion matrix and receiver operating characteristic (ROC) overall accuracy. The proposed model was compared with widely known machine learning methods such as MLP, SVM, and DT classifiers to assess its capability. In addition, the model was tested on 25 laboratory UCS tests to evaluate its predictability. Our findings showed that the proposed model achieved the highest accuracy (accuracy=0.97, precision=0.97) and the lowest error rate with a high learning rate (R2=0.914), as confirmed by ROC (AUC=0.971), which is higher than other classifiers. Therefore, the proposed method demonstrates a high level of performance and capability for UCS predictions.

DDPG 및 연합학습 기반 5G 네트워크 자원 할당과 트래픽 예측 (5G Network Resource Allocation and Traffic Prediction based on DDPG and Federated Learning)

  • 박석우;이오성;나인호
    • 스마트미디어저널
    • /
    • 제13권4호
    • /
    • pp.33-48
    • /
    • 2024
  • 향상된 모바일 광대역(eMBB), 초저지연 및 고신뢰 통신(URLLC), 대규모 기계형 통신(mMTC) 등의 특징을 가진 5G의 등장으로 인해 효율적인 네트워크 관리와 서비스 제공을 위해 증가하는 네트워크 트래픽과 복잡성 해결이 시급한 상황이다.본 논문에서는 기계학습(Machine Learning, ML) 및 딥러닝(Deep Learning, DL)기술을 활용하여 5G 네트워크의 초고속, 초저지연, 초연결성이라는 주요 과제를 해결하면서 네트워크 슬라이싱 및 자원 할당을 동적으로 최적화하는 새로운 접근 방식을 제시한다. 제안된 기법에서는 네트워크 트래픽 및 자원 할당에 대한 예측 모델, 네트워크 대역폭 및 지연 시간을 최적화하면서 동시에 개인 정보와 보안을 향상시키기 위한 연합 학습(FL) 기법을 사용한다. 특히, 본 논문에서는 랜덤 포레스트와 LSTM 등 다양한 알고리듬과 모델의 구현 방법에 대해 자세히 다루며, 이를 통해 5G 네트워크 운영의 자동화와 지능화를 위한 방법론을 제시한다. 마지막으로 제안된 기법을 통해 5G 네트워크에 ML 및 DL을 적용하여 얻을 수 있는 성능향상 효과를 성능평가 및 분석을 통해 검증하고 다양한 산업 응용 분야에서 네트워크 슬라이싱 및 자원 관리 최적화를 위한 솔루션을 제시한다.