• 제목/요약/키워드: 지식 증류

검색결과 38건 처리시간 0.026초

초해상화 모델 경량화를 위한 지식 증류 방법의 비교 연구 (A Comparative Study of Knowledge Distillation Methods in Lightening a Super-Resolution Model)

  • 이여진;박한훈
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.21-26
    • /
    • 2023
  • 지식 증류는 깊은 모델의 지식을 가벼운 모델로 전달하는 모델 경량화 기술이다. 대부분의 지식 증류 방법들은 분류 모델을 위해 개발되었으며, 초해상화를 위한 지식 증류 연구는 거의 없었다. 본 논문에서는 다양한 지식 증류 방법들을 초해상화 모델에 적용하고 성능을 비교한다. 구체적으로, 초해상화 모델에 각 지식 증류 방법을 적용하기 위해 손실 함수를 수정하고, 각 지식 증류 방법을 사용하여 교사 모델을 약 27배 경량화한 학생 모델을 학습하여 2배 초해상화하는 실험을 진행하였다. 실험을 통해, 일부 지식 증류 방법은 초해상화 모델에 적용할 경우 유효하지 않음을 알 수 있었으며, 관계 기반 지식 증류 방법과 전통적인 지식 증류 방법을 결합했을 때 성능이 가장 높은 것을 확인하였다.

상호증류를 통한 SRGAN 판별자의 성능 개선 (Performance Improvement of SRGAN's Discriminator via Mutual Distillation)

  • 이여진;박한훈
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.160-165
    • /
    • 2022
  • 상호증류는 교사 네트워크 도움 없이 다수의 네트워크 사이에 지식을 전달함으로써 협력적으로 학습하도록 유도하는 지식증류 방법이다. 본 논문은 상호증류가 초해상화 네트워크에도 적용 가능한지 확인하는 것을 목표로 한다. 이를 위해 상호증류를 SRGAN의 판별자에 적용하는 실험을 수행하고, 상호증류가 SRGAN의 성능 향상에 미치는 영향을 분석한다. 실험 결과, 상호증류를 통해 판별자의 지식을 공유한 SRGAN은 정량적, 정성적 화질이 개선된 초해상화 영상을 생성하였다.

수치 모델을 활용한 지식 증류 기반 기상 예측 딥러닝 모델 (Deep Learning Model for Weather Forecast based on Knowledge Distillation using Numerical Simulation Model)

  • 유선희;정은성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.530-531
    • /
    • 2023
  • 딥러닝에서 지식 증류 기법은 큰 모델의 지식을 작은 모델로 전달하여 작은 모델의 성능을 개선하는 방식이다. 지식 증류 기법은 모델 경량화, 학습 속도 향상, 학습 정확도 향상 등에 활용될 수 있는데, 교사 모델이라 불리는 큰 모델은 일반적으로 학습된 딥러닝 모델을 사용한다. 본 연구에서는 학습된 딥러닝 모델 대신에 수치 기반 시뮬레이션 모델을 사용함으로써 어떠한 효과가 있는지 검증하였으며, 수치 모델을 활용한 기상 예측 모델에서의 지식 증류는 기존 단독 딥러닝 모델 학습 대비 더 작은 학습 횟수(epoch)에서도 동일한 에러 수준(RMSE)까지 도달하여, 학습 속도 측면에서 이득이 있음을 확인하였다.

익스플리싯 피드백 환경에서 추천 시스템을 위한 최신 지식증류기법들에 대한 성능 및 정확도 평가 (State-of-the-Art Knowledge Distillation for Recommender Systems in Explicit Feedback Settings: Methods and Evaluation)

  • 배홍균;김지연;김상욱
    • 스마트미디어저널
    • /
    • 제12권9호
    • /
    • pp.89-94
    • /
    • 2023
  • 추천 시스템은 사용자가 아이템에 남긴 익스플리싯 또는 임플리싯 피드백을 바탕으로 각 사용자가 선호할 법한 아이템들을 추천하는 기술이다. 최근, 추천 시스템에 사용되는 딥 러닝 기반 모델의 사이즈가 커짐에 따라, 높은 추천 정확도를 유지하며 추론 시간은 줄이기 위한 목적의 연구가 활발히 진행되고 있다. 대표적으로 지식증류기법을 이용한 추천 시스템에 관한 연구가 있으며, 지식증류기법이란 큰 사이즈의 모델(즉, 교사)로부터 추출된 지식을 통해 작은 사이즈의 모델(즉, 학생)을 학습시킨 뒤, 학습이 끝난 작은 사이즈의 모델을 추천 모델로서 이용하는 방법이다. 추천 시스템을 위한 지식증류기법들에 관한 기존의 연구들은 주로 임플리싯 피드백 환경만을 대상으로 수행되어 왔었으며, 본 논문에서 우리는 이들을 익스플리싯 피드백 환경에 적용할 경우의 성능 및 정확도를 관찰하고자 한다. 실험을 위해 우리는 총 5개의 최신 지식증류기법들과 3개의 실세계 데이터셋을 사용하였다.

다중 클래스 환경의 추천 시스템을 위한 지식 증류 기법들의 비교 분석 (Knowledge Distillation for Recommender Systems in Multi-Class Settings: Methods and Evaluation)

  • 김지연;배홍균;김상욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.356-358
    • /
    • 2022
  • 추천 시스템에서 사용되는 피드백은 단일 클래스와 다중 클래스 피드백으로 구분할 수 있다. 추천 시스템을 위한 지식 증류 기법들은 단일 클래스 환경에서 주로 연구되어 왔다. 우리는 다중 클래스 환경에서 또한 추천 시스템을 위한 최신 지식 증류 기법들이 효과적인지에 대해 알아보고자 하며, 해당 방법들 간의 추천 정확도를 비교해보고자 한다. 추천 시스템에서 보편적으로 사용되는 데이터 셋들을 기반으로 한 실험들을 통해 추천 시스템을 위한 지식 증류 기법들은 같은 조건의 기본적인 추천 시스템에 비해 정확도가 최대 193%까지 개선되는 것을 확인했다.

Text Classification Using Heterogeneous Knowledge Distillation

  • Yu, Yerin;Kim, Namgyu
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권10호
    • /
    • pp.29-41
    • /
    • 2022
  • 최근 딥 러닝 기술의 발전으로 방대한 텍스트 데이터를 사전에 학습한 우수한 성능의 거대한 모델들이 다양하게 고안되었다. 하지만 이러한 모델을 실제 서비스나 제품에 적용하기 위해서는 빠른 추론 속도와 적은 연산량이 요구되고 있으며, 이에 모델 경량화 기술에 대한 관심이 높아지고 있다. 대표적인 모델 경량화 기술인 지식증류는 교사 모델이 이미 학습한 지식을 상대적으로 작은 크기의 학생 모델에 전이시키는 방법으로 다방면에 활용 가능하여 주목받고 있지만, 당장 주어진 문제의 해결에 필요한 지식만을 배우고 동일한 관점에서만 반복적인 학습이 이루어지기 때문에 기존에 접해본 문제와 유사성이 낮은 문제에 대해서는 해결이 어렵다는 한계를 갖는다. 이에 본 연구에서는 궁극적으로 해결하고자 하는 과업에 필요한 지식이 아닌, 보다 상위 개념의 지식을 학습한 교사 모델을 통해 지식을 증류하는 이질적 지식증류 방법을 제안한다. 또한, 사이킷런 라이브러리에 내장된 20 Newsgroups의 약 18,000개 문서에 대한 분류 실험을 통해, 제안 방법론에 따른 이질적 지식증류가 기존의 일반적인 지식증류에 비해 학습 효율성과 정확도의 모든 측면에서 우수한 성능을 보임을 확인하였다.

Knowledge Distillation based-on Internal/External Correlation Learning

  • Hun-Beom Bak;Seung-Hwan Bae
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.31-39
    • /
    • 2023
  • 본 논문에서는 이종 모델의 특징맵 간 상관관계인 외부적 상관관계와 동종 모델 내부 특징맵 간 상관관계인 내부적 상관관계를 활용하여 교사 모델로부터 학생 모델로 지식을 전이하는 Internal/External Knowledge Distillation (IEKD)를 제안한다. 두 상관관계를 모두 활용하기 위하여 특징맵을 시퀀스 형태로 변환하고, 트랜스포머를 통해 내부적/외부적 상관관계를 고려하여 지식 증류에 적합한 새로운 특징맵을 추출한다. 추출된 특징맵을 증류함으로써 내부적 상관관계와 외부적 상관관계를 함께 학습할 수 있다. 또한 추출된 특징맵을 활용하여 feature matching을 수행함으로써 학생 모델의 정확도 향상을 도모한다. 제안한 지식 증류 방법의 효과를 증명하기 위해, CIFAR-100 데이터 셋에서 "ResNet-32×4/VGG-8" 교사/학생 모델 조합으로 최신 지식 증류 방법보다 향상된 76.23% Top-1 이미지 분류 정확도를 달성하였다.

다중클래스 피드백을 이용한 지식증류기법 기반의 추천시스템 정확도 평가 (On Evaluating Recommender Systems with Knowledge Distillation in Multi-Class Feedback Environment)

  • 김지연;배홍균;김상욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.310-311
    • /
    • 2021
  • 추천시스템은 사용자가 아이템들에 남긴 과거 피드백을 바탕으로 사용자가 선호할 법할 아이템을 추천한다. 추천시스템에서 사용자의 선호도는 단일클래스 세팅과 다중클래스 세팅 두 가지로 표현 할 수 있다. 우리는 추천시스템을 위해 제안된 지식증류기법인 Ranking Distillation 을 다중클래스 세팅에서 실험하여, 증류된 지식을 통한 작은 모델 학습이 효과적인지에 대해 알아보고자 한다.

이미지 분류 문제를 위한 focal calibration loss 기반의 지식증류 기법 (Focal Calibration Loss-Based Knowledge Distillation for Image Classification)

  • 강지연 ;이재원 ;이상민
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.695-697
    • /
    • 2023
  • 최근 몇 년 간 딥러닝 기반 모델의 규모와 복잡성이 증가하면서 강력하고, 높은 정확도가 확보되지만 많은 양의 계산 자원과 메모리가 필요하기 때문에 모바일 장치나 임베디드 시스템과 같은 리소스가 제한된 환경에서의 배포에 제약사항이 생긴다. 복잡한 딥러닝 모델의 배포 및 운영 시 요구되는 고성능 컴퓨터 자원의 문제점을 해결하고자 사전 학습된 대규모 모델로부터 가벼운 모델을 학습시키는 지식증류 기법이 제안되었다. 하지만 현대 딥러닝 기반 모델은 높은 정확도 대비 훈련 데이터에 과적합 되는 과잉 확신(overconfidence) 문제에 대한 대책이 필요하다. 본 논문은 효율적인 경량화를 위한 미리 학습된 모델의 과잉 확신을 방지하고자 초점 손실(focal loss)을 이용한 모델 보정 기법을 언급하며, 다양한 손실 함수 변형에 따라서 지식증류의 성능이 어떻게 변화하는지에 대해 탐구하고자 한다.

지식증류를 활용한 지속적 한국어 개체명 인식 (Continuous Korean Named Entity Recognition Using Knowledge Distillation)

  • 장준서;박성식;김학수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.505-509
    • /
    • 2023
  • 개체명 인식은 주어진 텍스트에서 특정 유형의 개체들을 식별하고 추출하는 작업이다. 일반적인 딥러닝 기반 개체명 인식은 사전에 개체명들을 모두 정의한 뒤 모델을 학습한다. 하지만 실제 학습 환경에서는 지속적으로 새로운 개체명이 등장할 수 있을뿐더러 기존 개체명을 학습한 데이터가 접근이 불가할 수 있다. 또한, 새로 모델을 학습하기 위해 새로운 데이터에 기존 개체명을 수동 태깅하기엔 많은 시간과 비용이 든다. 해결 방안으로 여러 방법론이 제시되었지만 새로운 개체명을 학습하는 과정에서 기존 개체명 지식에 대한 망각 현상이 나타났다. 본 논문에서는 지식증류를 활용한 지속학습이 한국어 개체명 인식에서 기존 지식에 대한 망각을 줄이고 새로운 지식을 학습하는데 효과적임을 보인다. 국립국어원에서 제공한 개체명 인식 데이터로 실험과 평가를 진행하여 성능의 우수성을 보인다.

  • PDF