• 제목/요약/키워드: 반도체공동연구소

검색결과 65건 처리시간 0.027초

코드 생성 언어 모델의 코드 보안성 향상을 위한 프롬프트 튜닝 (Prompt Tuning for Enhancing Security of Code in Code Generation Language Models)

  • 유미선;한우림;조윤기;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.623-626
    • /
    • 2024
  • 최근 거대 언어 모델의 발전으로 프로그램 합성 분야에서 활용되고 있는 코드 생성 언어 모델의 보안적 측면에 대한 중요성이 부각되고 있다. 그러나, 이를 위해 모델 전체를 재학습하기에는 많은 자원과 시간이 소모된다. 따라서, 본 연구에서는 효율적인 미세조정 방식 중 하나인 프롬프트 튜닝으로 코드 생성 언어 모델이 안전한 코드를 생성할 확률을 높이는 방법을 탐구한다. 또한 이에 따른 기능적 정확성 간의 상충 관계를 분석한다. 실험 결과를 통해 프롬프트 튜닝이 기존 방법에 비해 추가 파라미터를 크게 줄이면서도 보안률을 향상시킬 수 있음을 알 수 있었다. 미래 연구 방향으로는 새로운 조정 손실함수와 하이퍼파라미터 값을 조정하여 성능을 더욱 향상시킬 수 있는지 조사할 것이다. 이러한 연구는 보다 안전하고 신뢰할 수 있는 코드 생성을 위한 중요한 발전을 이끌 수 있을 것으로 기대된다.

TFHE 파라미터의 최적화에 대한 연구 (A Study on the Optimisation of the TFHE Parameters)

  • 하승진;주유연;남기빈;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.415-418
    • /
    • 2024
  • 본 논문에서는 TFHE(Fast Homomorphic Encryption over the Torus) 파라미터의 중요성과 그파라미터가 동형암호 연산의 성능에 미치는 영향을 다룬다. 본 연구는 TFHE의 핵심 구성 요소인 TLWE, TRLWE, TRGSW 샘플의 파라미터 설정이 어떻게 보안 수준, 정확도, 처리 속도에 영향을 미치는지 분석한다. 이를 통해, 정확도와 처리 속도 같은 성능과 보안 수준 사이의 균형을 이루기 위한 파라미터 조정의 중요성을 강조하고, TFHE 파라미터를 사용하는 방법에 대한 구체적인 가이드라인을 제공한다. 본 논문은 동형암호 기술의 효율성을 극대화하고, 보다 안전하고 효율적인 데이터 처리 방법을 개발하는 데 기여할 것으로 기대된다.

증류 기반 연합 학습에서 로짓 역전을 통한 개인 정보 취약성에 관한 연구 (A Survey on Privacy Vulnerabilities through Logit Inversion in Distillation-based Federated Learning)

  • 윤수빈;조윤기;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.711-714
    • /
    • 2024
  • In the dynamic landscape of modern machine learning, Federated Learning (FL) has emerged as a compelling paradigm designed to enhance privacy by enabling participants to collaboratively train models without sharing their private data. Specifically, Distillation-based Federated Learning, like Federated Learning with Model Distillation (FedMD), Federated Gradient Encryption and Model Sharing (FedGEMS), and Differentially Secure Federated Learning (DS-FL), has arisen as a novel approach aimed at addressing Non-IID data challenges by leveraging Federated Learning. These methods refine the standard FL framework by distilling insights from public dataset predictions, securing data transmissions through gradient encryption, and applying differential privacy to mask individual contributions. Despite these innovations, our survey identifies persistent vulnerabilities, particularly concerning the susceptibility to logit inversion attacks where malicious actors could reconstruct private data from shared public predictions. This exploration reveals that even advanced Distillation-based Federated Learning systems harbor significant privacy risks, challenging the prevailing assumptions about their security and underscoring the need for continued advancements in secure Federated Learning methodologies.

엣지 디바이스를 위한 AI 가속기 설계 방법 (AI Accelerator Design for Edge Devices)

  • 하회리;김현준;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.723-726
    • /
    • 2024
  • 단일 dataflow 를 지원하는 DNN 가속기는 자원 효율적인 성능을 보이지만, 여러 DNN 모델에 대해서 가속 효과가 제한적입니다. 반면에 모든 dataflow 를 지원하여 매 레이어마다 최적의 dataflow를 사용하여 가속하는 reconfigurable dataflow accelerator (RDA)는 굉장한 가속 효과를 보이지만 여러 dataflow 를 지원하는 과정에서 필요한 추가 하드웨어로 인하여 효율적이지 못합니다. 따라서 본 연구는 제한된 dataflow 만을 지원하여 추가 하드웨어 요구사항을 감소시키고, 중복되는 하드웨어의 재사용을 통해 최적화하는 새로운 가속기 설계를 제안합니다. 이 방식은 자원적 한계가 뚜렷한 엣지 디바이스에 RDA 방식을 적용하는데 필수적이며, 기존 RDA 의 단점을 최소화하여 성능과 자원 효율성의 최적점을 달성합니다. 실험 결과, 제안된 가속기는 기존 RDA 대비 32% 더 높은 에너지 효율을 보이며, latency 는 불과 1%의 차이를 보였습니다.

연합학습의 보안 취약점에 대한 연구동향 (A Survey on Threats to Federated Learning)

  • 한우림;조윤기;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.230-232
    • /
    • 2023
  • Federated Learning (FL) is a technique that excels in training a global model using numerous clients while only sharing the parameters of their local models, which were trained on their private training datasets. As a result, clients can obtain a high-performing deep learning (DL) model without having to disclose their private data. This setup is based on the understanding that all clients share the common goal of developing a global model with high accuracy. However, recent studies indicate that the security of gradient sharing may not be as reliable as previously thought. This paper introduces the latest research on various attacks that threaten the privacy of federated learning.

PQC SPHINCS+ 전자 서명 알고리즘의 효과적인 하드웨어 설계에 관한 연구 (A Study on Efficient Hardware Design of Digital Signature Algorithm for Post-Quantum Cryptography SPHINCS+)

  • 이용석 ;;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.239-241
    • /
    • 2023
  • 본 논문은 통신 시스템에 주로 사용되는 디지털 전자 서명 알고리즘 중 양자 내성 암호인 SPHINCS+ 알고리즘에 대한 효과적인 하드웨어 설계 방안에 대한 연구이다. SPHINCS+ 알고리즘은 해시 함수 기반 알고리즘으로, 많은 횟수의 해시 함수가 반복해서 사용된다. 해시 함수를 가속 연산해도, 그 횟수가 크기 때문에 SPHINCS+ 알고리즘은 다른 전자 서명 알고리즘보다 하드웨어 설계 후 큰 latency 를 가지는 특징이 있다. 이를 극복하기 위해 SPHINCS+ 알고리즘에서 사용되는 해시 함수들을 면밀하게 분석한다. 그 결과 같은 해시 함수에 대해서도 입출력 데이터 크기가 다양하게 변화하고, 서로 다른 데이터 플로우를 가지는 그 세부 차이점들을 파악하여, 이를 접목한 하드웨어 설계에 대해 논의한다.

공지사항

  • 한국전자산업진흥회
    • 전자진흥
    • /
    • 제5권8호
    • /
    • pp.98-108
    • /
    • 1985
  • PDF

AI 가속기 설계 영역 탐색에 대한 연구 (A Study on Design Space Exploration on AI accelerator)

  • 이동주;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.535-537
    • /
    • 2022
  • AI 가속기는 머신 러닝 및 딥 러닝을 포함한 인공 지능 및 기계 학습 응용 프로그램의 연산을 더 빠르게 수행하도록 설계된 일종의 하드웨어 가속기 또는 컴퓨터 시스템이다. 가속기를 설계하기 위해선 설계 영역 탐색(Design Space Exploration)을 하여야 하고 여러 인공지능 중에서도 합성 곱 신경망(CNN)에 대한 설계 영역 탐색을 소개한다.

Sparse Tensor 가속기의 모델링에 관한 연구 동향 (A Study on Modeling of Sparse Tensor Accelerators)

  • 하회리;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.336-338
    • /
    • 2023
  • Sparse한 데이터가 딥러닝에 자주 사용됨에 따라 다양한 sparse 텐서 가속기들이 연구되고 있다. 하지만 이런 sparse 텐서 가속기들은 특수 하드웨어 모듈을 채용하고 있고, 다양한 구조로 되어 있다. 또한, 가속기들의 효율성이 데이터의 sparsity에 따라 달라지기 때문에 서로의 직접적인 비교도 힘들다. 따라서 이 문제들을 해결하기 위해, sparse 텐서 가속기들을 모델링하여 서로를 비교하려는 연구들이 존재하며, 이 논문에서는 이에 관한 연구 동향을 서술하였다.

인공지능 가속기 데이터 흐름 다양성에 대한 연구 (A Study on the Dataflow Diversity of Al accelerator)

  • 이동주;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.482-484
    • /
    • 2023
  • 인공지능 가속기는 인공 지능 및 기계 학습 응용 프로그램의 연산을 더 빠르게 수행하도록 설계된 하드웨어 가속기이다. 인공지능 가속기 내에서 데이터가 효율적으로 처리되기 위해서는 그 흐름을 제어해야 한다. 데이터의 흐름을 제어하는 방법에 따라 가속기의 면적, 전력, 성능의 차이가 발생하는데, 그 다양한 데이터 흐름 제어방법에 대해 소개한다.