• 제목/요약/키워드: federated learning

검색결과 76건 처리시간 0.028초

연합학습 개방형 플랫폼의 발전과 문제점에 대한 체계적 비교 분석 (Advances and Issues in Federated Learning Open Platforms: A Systematic Comparison and Analysis)

  • 김진수;양세모;이강윤;이광기
    • 인터넷정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.1-13
    • /
    • 2023
  • 연합학습이 현대 인공지능 연구에 큰 패러다임을 가지고 오면서 다양한 분야의 연구에서 연합학습을 접목시키기 위한 노력을 하고 있다. 하지만 연합학습 적용을 위한 연구자들은 자신의 상황과 목적에 맞는 연합학습 프레임워크와 벤치마크 툴을 선택해야 하는 문제에 직면한다. 본 연구는 실제 연합학습을 적용하는 연구자의 상황을 고려한 연합학습 프레임워크 및 벤치마크 툴의 선택 가이드라인 제시를 목표로 한다. 특히, 본 연구에서는 3가지의 주요한 기여점이 존재한다. 첫번째, 연합학습을 적용하는 연구자의 상황을 연합학습의 목표와 결합하여 일반화하고, 각 상황에 적합한 연합학습 프레임워크의 선택 가이드라인을 제안한다. 두번째, 연구자에게 연합학습 프레임워크를 각각의 특징과 성능비교를 통해 선택의 적합성을 보여준다. 마지막으로, 현존하는 연합학습 프레임워크의 한계와 실세계 연합학습 운영을 위한 방안, 특히 생명주기 관리에 대한 플랫폼의 구조에 대해 제안한다.

연합학습 기반 자치구별 건물 변화탐지 알고리즘 성능 분석 (Performance Analysis of Building Change Detection Algorithm)

  • 김영현
    • 디지털산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.233-244
    • /
    • 2023
  • Although artificial intelligence and machine learning technologies have been used in various fields, problems with personal information protection have arisen based on centralized data collection and processing. Federated learning has been proposed to solve this problem. Federated learning is a process in which clients who own data in a distributed data environment learn a model using their own data and collectively create an artificial intelligence model by centrally collecting learning results. Unlike the centralized method, Federated learning has the advantage of not having to send the client's data to the central server. In this paper, we quantitatively present the performance improvement when federated learning is applied using the building change detection learning data. As a result, it has been confirmed that the performance when federated learning was applied was about 29% higher on average than the performance when it was not applied. As a future work, we plan to propose a method that can effectively reduce the number of federated learning rounds to improve the convergence time of federated learning.

증류 기반 연합 학습에서 로짓 역전을 통한 개인 정보 취약성에 관한 연구 (A Survey on Privacy Vulnerabilities through Logit Inversion in Distillation-based Federated Learning)

  • 윤수빈;조윤기;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.711-714
    • /
    • 2024
  • In the dynamic landscape of modern machine learning, Federated Learning (FL) has emerged as a compelling paradigm designed to enhance privacy by enabling participants to collaboratively train models without sharing their private data. Specifically, Distillation-based Federated Learning, like Federated Learning with Model Distillation (FedMD), Federated Gradient Encryption and Model Sharing (FedGEMS), and Differentially Secure Federated Learning (DS-FL), has arisen as a novel approach aimed at addressing Non-IID data challenges by leveraging Federated Learning. These methods refine the standard FL framework by distilling insights from public dataset predictions, securing data transmissions through gradient encryption, and applying differential privacy to mask individual contributions. Despite these innovations, our survey identifies persistent vulnerabilities, particularly concerning the susceptibility to logit inversion attacks where malicious actors could reconstruct private data from shared public predictions. This exploration reveals that even advanced Distillation-based Federated Learning systems harbor significant privacy risks, challenging the prevailing assumptions about their security and underscoring the need for continued advancements in secure Federated Learning methodologies.

Time Series Crime Prediction Using a Federated Machine Learning Model

  • Salam, Mustafa Abdul;Taha, Sanaa;Ramadan, Mohamed
    • International Journal of Computer Science & Network Security
    • /
    • 제22권4호
    • /
    • pp.119-130
    • /
    • 2022
  • Crime is a common social problem that affects the quality of life. As the number of crimes increases, it is necessary to build a model to predict the number of crimes that may occur in a given period, identify the characteristics of a person who may commit a particular crime, and identify places where a particular crime may occur. Data privacy is the main challenge that organizations face when building this type of predictive models. Federated learning (FL) is a promising approach that overcomes data security and privacy challenges, as it enables organizations to build a machine learning model based on distributed datasets without sharing raw data or violating data privacy. In this paper, a federated long short- term memory (LSTM) model is proposed and compared with a traditional LSTM model. Proposed model is developed using TensorFlow Federated (TFF) and the Keras API to predict the number of crimes. The proposed model is applied on the Boston crime dataset. The proposed model's parameters are fine tuned to obtain minimum loss and maximum accuracy. The proposed federated LSTM model is compared with the traditional LSTM model and found that the federated LSTM model achieved lower loss, better accuracy, and higher training time than the traditional LSTM model.

블록체인 기반의 연합학습 구현 (An Implementation of Federated Learning based on Blockchain)

  • 박준범;박종서
    • 한국빅데이터학회지
    • /
    • 제5권1호
    • /
    • pp.89-96
    • /
    • 2020
  • 인공신경망(artficial neural networks)를 활용한 딥러닝은 최근 이미지인식, 빅데이터 및 데이터분석 등 다양한 분야에서 연구되고 개발이 진행되고 있다. 하지만 데이터 프라이버시 침해 이슈와 학습을 많이 할수록 소모 비용과 시간이 증가하는 문제점이 있어서 이를 해결하기 위해 연합학습(Federated Learning)이 연구되었다. 연합학습에서는 프라이버시 문제를 완화하면서, 분산 처리 시스템의 이점을 가져오는 학습기법을 제시하였다. 하지만 여전히 연합학습에서도 프라이버시 및 보안 문제가 존재한다. 그래서 우리는 연합학습의 서버에 해당하는 부분을 블록체인으로 대체하여 연합학습의 문제점인 프라이버시 문제와 보안 문제를 해결하였다. 또한 사용자가 제출하는 데이터에 대한 보상을 지급하여서 동기를 부여하고, 기존 성능은 유지하면서도 더 적은 비용의 유지비를 필요로 하는 시스템을 연구하였다. 본 논문에서는 우리가 개발한 시스템의의 타당성을 보이기 위해 실험결과를 제시하면서 기존 연합학습과 연구한 블록체인 기반의 연합학습 결과를 비교한다. 또한 향후 연구로 보안문제에 대한 해법과 와 적용 가능한 비즈니스 분야를 제시를 보여주면서 논문을 마무리 하였다.

Flower을 사용한 점진적 연합학습시스템 구성 (Construction of Incremental Federated Learning System using Flower)

  • 강윤희;강명주
    • Journal of Platform Technology
    • /
    • 제11권4호
    • /
    • pp.80-88
    • /
    • 2023
  • 인공지능 분야에서 학습모델을 구성하기 위해서는 학습데이터의 수집이 선행되어야 하며, 학습데이터를 학습모델 구성이 이루어지는 중앙 서버로 전달하여야 한다. 연합 학습은 클라이언트 측면의 데이터 이동없이 협력적은 방법으로 전역 학습 모델을 구성하는 기계학습 방법이다. 연합학습은 개인 정보를 보호하기 위해 활용될 수 있으며, 개별 클라이언트에서 로컬 학습모델을 구성한 후 로컬 모델의 매개변수를 중앙에서 집계하여 전역 모델을 업데이트한다. 이 본문에서는 연합학습의 개선을 위해 기존의 학습 결과인 학습 매개변수를 사용한다. 이를 위해 연합학습 프레임워크인 Flower를 사용하여 실험을 수행한 후 알고리즘의 수행시간 및 최적화에 따른 결과를 평가하여 제시한다.

  • PDF

Centralized Machine Learning Versus Federated Averaging: A Comparison using MNIST Dataset

  • Peng, Sony;Yang, Yixuan;Mao, Makara;Park, Doo-Soon
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.742-756
    • /
    • 2022
  • A flood of information has occurred with the rise of the internet and digital devices in the fourth industrial revolution era. Every millisecond, massive amounts of structured and unstructured data are generated; smartphones, wearable devices, sensors, and self-driving cars are just a few examples of devices that currently generate massive amounts of data in our daily. Machine learning has been considered an approach to support and recognize patterns in data in many areas to provide a convenient way to other sectors, including the healthcare sector, government sector, banks, military sector, and more. However, the conventional machine learning model requires the data owner to upload their information to train the model in one central location to perform the model training. This classical model has caused data owners to worry about the risks of transferring private information because traditional machine learning is required to push their data to the cloud to process the model training. Furthermore, the training of machine learning and deep learning models requires massive computing resources. Thus, many researchers have jumped to a new model known as "Federated Learning". Federated learning is emerging to train Artificial Intelligence models over distributed clients, and it provides secure privacy information to the data owner. Hence, this paper implements Federated Averaging with a Deep Neural Network to classify the handwriting image and protect the sensitive data. Moreover, we compare the centralized machine learning model with federated averaging. The result shows the centralized machine learning model outperforms federated learning in terms of accuracy, but this classical model produces another risk, like privacy concern, due to the data being stored in the data center. The MNIST dataset was used in this experiment.

A Federated Multi-Task Learning Model Based on Adaptive Distributed Data Latent Correlation Analysis

  • Wu, Shengbin;Wang, Yibai
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.441-452
    • /
    • 2021
  • Federated learning provides an efficient integrated model for distributed data, allowing the local training of different data. Meanwhile, the goal of multi-task learning is to simultaneously establish models for multiple related tasks, and to obtain the underlying main structure. However, traditional federated multi-task learning models not only have strict requirements for the data distribution, but also demand large amounts of calculation and have slow convergence, which hindered their promotion in many fields. In our work, we apply the rank constraint on weight vectors of the multi-task learning model to adaptively adjust the task's similarity learning, according to the distribution of federal node data. The proposed model has a general framework for solving optimal solutions, which can be used to deal with various data types. Experiments show that our model has achieved the best results in different dataset. Notably, our model can still obtain stable results in datasets with large distribution differences. In addition, compared with traditional federated multi-task learning models, our algorithm is able to converge on a local optimal solution within limited training iterations.

K-비동기식 연합학습의 동적 윈도우 조절과 모델 안정성 향상 알고리즘 (Dynamic Window Adjustment and Model Stability Improvement Algorithm for K-Asynchronous Federated Learning)

  • 김효상;김태준
    • 한국산업정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.21-34
    • /
    • 2023
  • 연합학습은 동기식 연합학습과 비동기식 연합학습으로 구분된다. 그 중에서 비동기식 연합학습은 동기식 연합학습 보다 시간적인 이득이 있으나 좋은 모델 성능을 얻기 위한 도전 과제가 남아있다. 특히 non-IID 학습 데이터셋에서 성능열화 방지, 적절한 클라이언트 선택 및 오래된 그래디언트 정보 관리는 모델 성능 개선에 있어 중요하다. 본 논문에서는 K-비동기식 연합학습을 다루고 있으며 non-IID 데이터셋을 통해 학습한다. 또한 기존 방식이 선택할 클라이언트 수에 있어서 정적인 K개를 사용한 것과 달리 동적으로 K 값을 조절하는 알고리즘을 제안하여 학습 시간을 줄일 수 있었다. 추가적으로, 오래된 그래디언트를 다루는 방식을 활용해 모델 성능 개선을 이루었음을 보여준다. 마지막으로 강한 모델 안정성을 얻기 위해 모델 성능을 평가하는 방식을 활용하였다. 실험 결과를 통해 전체 알고리즘을 활용했을 때 학습 시간 단축, 모델 정확도 향상, 모델 안정성 향상의 이득을 얻을 수 있음을 보여준다.

연합학습의 의료분야 적용을 위한 자기지도 메타러닝 (Self-supervised Meta-learning for the Application of Federated Learning on the Medical Domain)

  • 공희산;김광수
    • 지능정보연구
    • /
    • 제28권4호
    • /
    • pp.27-40
    • /
    • 2022
  • 최근 많은 발전을 이룬 의료 인공지능은 의사가 진단과 결정을 내리는 데 도움을 주는 등 중요한 역할을 수행하고 있다. 특히, 흉부 엑스레이 분야는 접근성 및 흉부질환 탐지에 유용함과 최근 COVID-19 상황이 도래함에 따라 많은 관심을 받고 있다. 그러나, 데이터의 수가 많음에도 레이블이 있는 데이터의 수가 부족하므로 효과적인 인공지능 모델을 만드는데 한계가 있다. 이러한 문제를 완화하는 방안으로 연합학습을 흉부 엑스레이 데이터에 적용한 연구가 등장했지만, 여전히 다음과 같은 문제를 내포하고 있다. 1) Non-IID 환경에서 발생할 수 있는 문제를 고려하지 않았다. 2) 연합학습 환경에서도 여전히 클라이언트의 레이블이 있는 데이터가 부족하다. 우리는 자기지도학습 모델을 연합학습의 Global 모델로 사용함으로써 위와 같은 문제를 해결하는 방법을 제안한다. 이를 위해 흉부 엑스레이 데이터를 사용한 연합학습에 알맞은 자기지도학습 방법론을 실험적으로 탐색하며, 자기지도학습 모델을 연합학습에 사용함으로써 얻을 수 있는 장점을 검증한다.