A Survey on Deep Learing Model Extraction Attacks

딥 러닝 모델 추출 공격 기법 동향

  • Jihun Baek (Dept. of Computer Science Engineering, UNIST) ;
  • Hyungon Moon (Dept. of Computer Science Engineering, UNIST)
  • 백지훈 (울산과학기술원 컴퓨터공학과) ;
  • 문현곤 (울산과학기술원 컴퓨터공학과)
  • Published : 2024.05.23

Abstract

딥 러닝 기술의 급속한 발전과 더불어, 이를 활용한 모델들에 대한 보안 위협도 증가하고 있다. 이들 중, 모델의 입출력 데이터를 이용해 내부 구조를 복제하려는 모델 추출 공격은 딥 러닝 모델 훈련에 높은 비용이 필요하다는 점에서 반드시 막아야 할 중요한 위협 중 하나라고 할 수 있다. 본 연구는 다양한 모델 추출 공격 기법과 이를 방어하기 위한 최신 연구 동향을 종합적으로 조사하고 분석하는 것을 목표로 하며, 또한 이를 통해 현재 존재하는 방어 메커니즘의 효과성을 평가하고, 향후 발전 가능성이 있는 새로운 방어 전략에 대한 통찰력을 제공하고자 한다.

Keywords

Acknowledgement

본 연구는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(NRF-2022R1F1A1076100). 또한 이 논문은 2024년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임(No.2021-0-00724, 임베디드 시스템 악성코드 탐지·복원을 위한 RISC-V 기반 보안 CPU 아키텍처 핵심 기술 개발)

References

  1. OREKONDY, Tribhuvanesh; SCHIELE, Bernt; FRITZ, Mario. Knockoff nets: Stealing functionality of black-box models. In: Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019. p. 4954-4963.
  2. TRUONG, Jean-Baptiste, et al. Data-free model extraction. In: Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021. p. 4771-4780.
  3. PAL, Soham, et al. Activethief: Model extraction using active learning and unannotated public data. In: Proceedings of the AAAI Conference on Artificial Intelligence. 2020. p. 865-872.
  4. BARBALAU, Antonio, et al. Black-box ripper: Copying black-box models using generative evolutionary algorithms. Advances in Neural Information Processing Systems, 2020, 33:20120-20129.
  5. KARMAKAR, Pratik; BASU, Debabrota. Marich: A Query-efficient Distributionally Equivalent Model Extraction Attack. Advances in Neural Information Processing Systems, 2024, 36.
  6. CHEN, Yanjiao, et al. D-dae: Defense-penetrating model extraction attacks. In: 2023 IEEE Symposium on Security and Privacy(SP). IEEE, 2023. p. 382-399.
  7. LV, Peizhuo, et al. MEA-Defender: A Robust Watermark against Model Extraction Attack. arXiv preprint arXiv:2401.15239, 2024.