• 제목/요약/키워드: Unsupervised Domain Adaptation

검색결과 7건 처리시간 0.021초

작물 분류를 위한 딥러닝 기반 비지도 도메인 적응 모델 비교 (Comparison of Deep Learning-based Unsupervised Domain Adaptation Models for Crop Classification)

  • 곽근호;박노욱
    • 대한원격탐사학회지
    • /
    • 제38권2호
    • /
    • pp.199-213
    • /
    • 2022
  • 비지도 도메인 적응은 연단위 작물 분류를 위해 매년 반복적으로 양질의 훈련자료를 수집해야 하는 비실용적인 문제를 해결할 수 있다. 이 연구에서는 작물 분류를 위한 딥러닝 기반 비지도 도메인 적응 모델의 적용성을 평가하였다. 우리나라 마늘, 양파 주산지인 합천군과 창녕군을 대상으로 무인기 영상을 이용한 작물 분류 실험을 통해 deep adaptation network (DAN), deep reconstruction-classification network, domain adversarial neural network (DANN)의 3개의 비지도 도메인 적응 모델을 정량적으로 비교하였다. 비지도 도메인 적응 모델의 분류 성능을 평가하기 위해 소스 베이스라인 및 대상 베이스라인 모델로 convolutional neural networks (CNNs)을 추가로 적용하였다. 3개의 비지도 도메인 적응 모델은 소스 베이스라인 CNN보다 우수한 성능을 보였으나, 소스 도메인 영상과 대상 도메인 영상의 자료 분포 간 불일치 정도에 따라 서로 다른 분류 성능을 보였다. DAN의 분류 성능은 두 도메인 영상 간 불일치가 작을 때 다른 두 모델에 비해 분류 성능이 높은 반면에 DANN은 두 도메인 영상 간 불일치가 클 때 가장 우수한 분류 성능을 보였다. 따라서 신뢰할 수 있는 분류 결과를 생성하기 위해 두 도메인 영상의 분포가 일치하는 정도를 고려해서 최상의 비지도 도메인 적응 모델을 선택해야 한다.

Improving Adversarial Domain Adaptation with Mixup Regularization

  • Bayarchimeg Kalina;Youngbok Cho
    • Journal of information and communication convergence engineering
    • /
    • 제21권2호
    • /
    • pp.139-144
    • /
    • 2023
  • Engineers prefer deep neural networks (DNNs) for solving computer vision problems. However, DNNs pose two major problems. First, neural networks require large amounts of well-labeled data for training. Second, the covariate shift problem is common in computer vision problems. Domain adaptation has been proposed to mitigate this problem. Recent work on adversarial-learning-based unsupervised domain adaptation (UDA) has explained transferability and enabled the model to learn robust features. Despite this advantage, current methods do not guarantee the distinguishability of the latent space unless they consider class-aware information of the target domain. Furthermore, source and target examples alone cannot efficiently extract domain-invariant features from the encoded spaces. To alleviate the problems of existing UDA methods, we propose the mixup regularization in adversarial discriminative domain adaptation (ADDA) method. We validated the effectiveness and generality of the proposed method by performing experiments under three adaptation scenarios: MNIST to USPS, SVHN to MNIST, and MNIST to MNIST-M.

딥러닝 기반의 도메인 적응 기술: 서베이 (Deep Learning based Domain Adaptation: A Survey)

  • 나재민;황원준
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.511-518
    • /
    • 2022
  • 딥러닝 기반의 지도학습은 다양한 응용 분야에서 비약적인 발전을 이루었다. 그러나 많은 지도 학습 방법들은 학습 및 테스트 데이터가 동일한 분포에서 추출된다는 공통된 가정 하에 이루어진다. 이 제약 조건에서 벗어나는 경우, 학습 도메인에서 훈련된 딥러닝 네트워크는 도메인 간의 분포 차이로 인하여 테스트 도메인에서의 성능이 급격하게 저하될 가능성이 높다. 도메인 적응 기술은 레이블이 풍부한 학습 도메인 (소스 도메인)의 학습된 지식을 기반으로 레이블이 불충분한 테스트 도메인 (타겟 도메인) 에서 성공적인 추론을 할 수 있도록 딥러닝 네트워크를 훈련하는 전이 학습의 한 방법론이다. 특히 비지도 도메인 적응 기술은 타겟 도메인에 레이블이 전혀 없는 이미지 데이터에만 접근할 수 있는 상황을 가정하여 도메인 적응 문제를 다룬다. 본 논문에서는 이러한 비지도 학습 기반의 도메인 적응 기술들에 대해 탐구한다.

Language Model Adaptation Based on Topic Probability of Latent Dirichlet Allocation

  • Jeon, Hyung-Bae;Lee, Soo-Young
    • ETRI Journal
    • /
    • 제38권3호
    • /
    • pp.487-493
    • /
    • 2016
  • Two new methods are proposed for an unsupervised adaptation of a language model (LM) with a single sentence for automatic transcription tasks. At the training phase, training documents are clustered by a method known as Latent Dirichlet allocation (LDA), and then a domain-specific LM is trained for each cluster. At the test phase, an adapted LM is presented as a linear mixture of the now trained domain-specific LMs. Unlike previous adaptation methods, the proposed methods fully utilize a trained LDA model for the estimation of weight values, which are then to be assigned to the now trained domain-specific LMs; therefore, the clustering and weight-estimation algorithms of the trained LDA model are reliable. For the continuous speech recognition benchmark tests, the proposed methods outperform other unsupervised LM adaptation methods based on latent semantic analysis, non-negative matrix factorization, and LDA with n-gram counting.

자기 정규화를 통한 도메인 불변 특징 학습 (Learning Domain Invariant Representation via Self-Rugularization)

  • 현재국;이찬용;김호성;유현정;고은진
    • 한국군사과학기술학회지
    • /
    • 제24권4호
    • /
    • pp.382-391
    • /
    • 2021
  • Unsupervised domain adaptation often gives impressive solutions to handle domain shift of data. Most of current approaches assume that unlabeled target data to train is abundant. This assumption is not always true in practices. To tackle this issue, we propose a general solution to solve the domain gap minimization problem without any target data. Our method consists of two regularization steps. The first step is a pixel regularization by arbitrary style transfer. Recently, some methods bring style transfer algorithms to domain adaptation and domain generalization process. They use style transfer algorithms to remove texture bias in source domain data. We also use style transfer algorithms for removing texture bias, but our method depends on neither domain adaptation nor domain generalization paradigm. The second regularization step is a feature regularization by feature alignment. Adding a feature alignment loss term to the model loss, the model learns domain invariant representation more efficiently. We evaluate our regularization methods from several experiments both on small dataset and large dataset. From the experiments, we show that our model can learn domain invariant representation as much as unsupervised domain adaptation methods.

KR-WordRank : WordRank를 개선한 비지도학습 기반 한국어 단어 추출 방법 (KR-WordRank : An Unsupervised Korean Word Extraction Method Based on WordRank)

  • 김현중;조성준;강필성
    • 대한산업공학회지
    • /
    • 제40권1호
    • /
    • pp.18-33
    • /
    • 2014
  • A Word is the smallest unit for text analysis, and the premise behind most text-mining algorithms is that the words in given documents can be perfectly recognized. However, the newly coined words, spelling and spacing errors, and domain adaptation problems make it difficult to recognize words correctly. To make matters worse, obtaining a sufficient amount of training data that can be used in any situation is not only unrealistic but also inefficient. Therefore, an automatical word extraction method which does not require a training process is desperately needed. WordRank, the most widely used unsupervised word extraction algorithm for Chinese and Japanese, shows a poor word extraction performance in Korean due to different language structures. In this paper, we first discuss why WordRank has a poor performance in Korean, and propose a customized WordRank algorithm for Korean, named KR-WordRank, by considering its linguistic characteristics and by improving the robustness to noise in text documents. Experiment results show that the performance of KR-WordRank is significantly better than that of the original WordRank in Korean. In addition, it is found that not only can our proposed algorithm extract proper words but also identify candidate keywords for an effective document summarization.

이종 디바이스 환경에 효과적인 신규 딥러닝 기반 프로파일링 부채널 분석 (Novel Deep Learning-Based Profiling Side-Channel Analysis on the Different-Device)

  • 우지은;한동국
    • 정보보호학회논문지
    • /
    • 제32권5호
    • /
    • pp.987-995
    • /
    • 2022
  • 딥러닝 기반 프로파일링 부채널 분석은 사전에 소비전력과 같은 부채널 정보와 중간값과의 관계를 신경망이 학습한 뒤, 학습된 신경망을 이용하여 공격 파형의 비밀키를 찾아내는 기법이다. 최근에는 실제 부채널 분석 환경을 고려하기 위하여 교차 디바이스 환경에서의 분석 방안들이 제안되고 있다. 그러나 이러한 환경은 프로파일링 디바이스와 공격 디바이스의 칩이 다르면 공격 성능이 낮아지는 한계점이 존재한다. 따라서 본 논문에서는 공격자가 프로파일링 디바이스와 다른 칩을 가지는 공격 디바이스를 가지고 있는 환경을 이종 디바이스라고 정의하고, 이러한 환경을 고려한 분석 방안을 제안하고자 한다. 프로파일링 데이터와 공격 데이터에서 발생하는 도메인 차이를 줄이기 위해 비지도 도메인 적응을 사용하였다. 또한, 각 데이터의 특징을 잘 추출하기 위하여 여러 전처리 데이터와 원본 데이터를 학습하는 신경망 구조인 MCNN를 이용하였다. 이종 디바이스 환경을 구성하기 위해 8-bit 기반 프로세서 1개, 32-bit 기반 프로세서 5개를 이용하여 AES-128 전력 파형을 수집하였다. 제안한 방법론을 적용한 신경망과 적용하지 않은 신경망의 공격 성능을 비교했을 때, 제안한 방법론을 적용한 신경망의 최소 분석 파형 수가 최대 25배 이상 낮아졌다.