Adversarial Detection and Purification with GAN

적대적 공격 감지와 GAN 을 이용한 복원

  • Junyoung Jang (School of Computer Science and Engineering, Chung-Ang University) ;
  • Minju Ro (School of Computer Science and Engineering, Chung-Ang University) ;
  • Junseok Kwon (School of Computer Science and Engineering, Chung-Ang University)
  • 장준영 (중앙대학교 소프트웨어학부) ;
  • 노민주 (중앙대학교 소프트웨어학부) ;
  • 권준석 (중앙대학교 소프트웨어학부)
  • Published : 2024.05.23

Abstract

인위적인 공격뿐만 아니란 현실 세계에서도 이미지에 노이즈가 추가되는 경우가 있다. 이를 해결하기 위한 많은 연구가 이루어지고 있지만, 적대적 공격에 강건한 모델은 기존의 모델에 비해 원본 이미지에 대해 정확도가 떨어진다는 문제점이 있다. 따라서 본 논문은 생성 모델을 활용하여 적대적 예제에 강건한 모듈을 제안한다. 또한, 적대적 공격을 탐지하는 모듈을 활용하여 적대적 예제뿐만 아니라 원본 이미지에 대해서도 정확도를 높이는 방법을 제안한다.

Keywords

References

  1. Kim, W. J., Cho, Y., Jung, J., & Yoon, S.-E. (2023). Feature separation and recalibration for adversarial robustness. 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). https://doi.org/10.1109/cvpr52729.2023.00791
  2. Karen Simonyan and Andrew Zisserman. Very deep convo- lutional networks for large-scale image recognition. In ICLR, 2015.
  3. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, 2016.
  4. P. Samangouei, M. Kabkab, and R. Chellappa, "Defense-GAN: Protecting classifiers against adversarial attacks using generative models," in Proc. Int. Conf. Learn. Representations(ICLR), 2018, pp. 1-17.