• 제목/요약/키워드: supervised training

검색결과 313건 처리시간 0.026초

Breast Cancer Classification in Ultrasound Images using Semi-supervised method based on Pseudo-labeling

  • Seokmin Han
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.124-131
    • /
    • 2024
  • Breast cancer classification using ultrasound, while widely employed, faces challenges due to its relatively low predictive value arising from significant overlap in characteristics between benign and malignant lesions, as well as operator-dependency. To alleviate these challenges and reduce dependency on radiologist interpretation, the implementation of automatic breast cancer classification in ultrasound image can be helpful. To deal with this problem, we propose a semi-supervised deep learning framework for breast cancer classification. In the proposed method, we could achieve reasonable performance utilizing less than 50% of the training data for supervised learning in comparison to when we utilized a 100% labeled dataset for training. Though it requires more modification, this methodology may be able to alleviate the time-consuming annotation burden on radiologists by reducing the number of annotation, contributing to a more efficient and effective breast cancer detection process in ultrasound images.

FAST-ADAM in Semi-Supervised Generative Adversarial Networks

  • Kun, Li;Kang, Dae-Ki
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제11권4호
    • /
    • pp.31-36
    • /
    • 2019
  • Unsupervised neural networks have not caught enough attention until Generative Adversarial Network (GAN) was proposed. By using both the generator and discriminator networks, GAN can extract the main characteristic of the original dataset and produce new data with similarlatent statistics. However, researchers understand fully that training GAN is not easy because of its unstable condition. The discriminator usually performs too good when helping the generator to learn statistics of the training datasets. Thus, the generated data is not compelling. Various research have focused on how to improve the stability and classification accuracy of GAN. However, few studies delve into how to improve the training efficiency and to save training time. In this paper, we propose a novel optimizer, named FAST-ADAM, which integrates the Lookahead to ADAM optimizer to train the generator of a semi-supervised generative adversarial network (SSGAN). We experiment to assess the feasibility and performance of our optimizer using Canadian Institute For Advanced Research - 10 (CIFAR-10) benchmark dataset. From the experiment results, we show that FAST-ADAM can help the generator to reach convergence faster than the original ADAM while maintaining comparable training accuracy results.

준지도 지지 벡터 회귀 모델을 이용한 반응 모델링 (Response Modeling with Semi-Supervised Support Vector Regression)

  • 김동일
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권9호
    • /
    • pp.125-139
    • /
    • 2014
  • 본 논문에서는 준지도 지지 벡터 회귀 모델(semi-supervised support vector regression)을 이용한 반응 모델링(response modeling)을 제안한다. 반응 모델링의 성능 및 수익성을 높이기 위해, 고객 데이터 셋의 대부분을 차지하는 레이블이 존재하지 않는 데이터를 기존 레이블이 존재하는 데이터와 함께 학습에 이용한다. 제안하는 알고리즘은 학습 복잡도를 낮은 수준으로 유지하기 위해 일괄 학습(batch learning) 방식을 사용한다. 레이블 없는 데이터의 레이블 추정에서 불확실성(uncertainty)을 고려하기 위해, 분포추정(distribution estimation)을 하여 레이블이 존재할 수 있는 영역을 정의한다. 그리고 추정된 레이블 영역으로부터 오버샘플링(oversampling)을 통해 각 레이블이 없는 데이터에 대한 레이블을 복수 개 추출하여 학습 데이터 셋을 구성한다. 이 때, 불확실성의 정도에 따라 샘플링 비율을 다르게 함으로써, 불확실한 영역에 대해 더 많은 정보를 발생시킨다. 마지막으로 지능적 학습 데이터 선택 기법을 적용하여 학습 복잡도를 최종적으로 감소시킨다. 제안된 반응 모델링의 성능 평가를 위해, 실제 마케팅 데이터 셋에 대해 다양한 레이블 데이터 비율로 실험을 진행하였다. 실험 결과 제안된 준지도 지지 벡터 회귀 모델을 이용한 반응 모델이 기존 모델에 비해 더 높은 정확도 및 수익을 가질 수 있다는 점을 확인하였다.

교사학습과 비교사학습의 접목에 의한 두뇌방식의 지능 정보 처리 알고리즘 개발: 학습패턴의 생성 (Development of Brain-Style Intelligent Information Processing Algorithm Through the Merge of Supervised and Unsupervised Learning: Generation of Exemplar Patterns for Training)

  • 오상훈
    • 전자공학회논문지CI
    • /
    • 제41권6호
    • /
    • pp.61-67
    • /
    • 2004
  • 시간/경제적 문제 혹은 수집 대상의 제한으로 충분한 수의 학습패턴을 모을 수 없는 경우에 인간의 두뇌를 모방한 교사학습 및 비교사학습 모델을 이용하여 새로운 학습패턴을 생성하는 알고리즘을 제안하였다. 비교사학습은 독립성분분석을 사용하여 패턴의 특성을 분석 후 생성하며, 교사학습은 다층퍼셉트론 모델을 사용하여 생성된 패턴의 검증을 하는 단계로 적용되었다. 통계학적으로 이와 같은 형태의 패턴 생성을 분석하였으며, 필기체 숫자의 학습 패턴 수를 변동시키면서 패턴 생성의 효과를 시험패턴에 대한 오인식률로 확인한 결과 성능이 향상됨을 보였다.

Supervised Competitive Learning Neural Network with Flexible Output Layer

  • Cho, Seong-won
    • 한국지능시스템학회논문지
    • /
    • 제11권7호
    • /
    • pp.675-679
    • /
    • 2001
  • In this paper, we present a new competitive learning algorithm called Dynamic Competitive Learning (DCL). DCL is a supervised learning method that dynamically generates output neurons and initializes automatically the weight vectors from training patterns. It introduces a new parameter called LOG (Limit of Grade) to decide whether an output neuron is created or not. If the class of at least one among the LOG number of nearest output neurons is the same as the class of the present training pattern, then DCL adjusts the weight vector associated with the output neuron to learn the pattern. If the classes of all the nearest output neurons are different from the class of the training pattern, a new output neuron is created and the given training pattern is used to initialize the weight vector of the created neuron. The proposed method is significantly different from the previous competitive learning algorithms in the point that the selected neuron for learning is not limited only to the winner and the output neurons are dynamically generated during the learning process. In addition, the proposed algorithm has a small number of parameters, which are easy to be determined and applied to real-world problems. Experimental results for pattern recognition of remote sensing data and handwritten numeral data indicate the superiority of DCL in comparison to the conventional competitive learning methods.

  • PDF

교사학습과 비교사 학습의 접목에 의한 두뇌방식의 지능 정보 처리 알고리즘I: 학습패턴의 생성 (Development of Brain-Style Intelligent Information Processing Algorithm Through the Merge of Supervised and Unsupervised Learning I: Generation of Exemplar Patterns for Training)

  • 오상훈
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 춘계 종합학술대회 논문집
    • /
    • pp.56-62
    • /
    • 2004
  • 시간/경제적 문제 혹은 수집 대상의 제한으로 충분한 수의 학습패턴을 모을 수 없는 경우에 인간의 두뇌를 모방한 교사학습 및 비교사학습 모델을 이용하여 새로운 학습패턴을 생성한 후 이를 이용하여 학습한 경우 성능이 향상됨을 보였다.

  • PDF

신경 망의 지도 학습을 위한 로그 간격의 학습 자료 구성 방식과 손실 함수의 성능 평가 (Performance Evaluation of Loss Functions and Composition Methods of Log-scale Train Data for Supervised Learning of Neural Network)

  • 송동규;고세헌;이효민
    • Korean Chemical Engineering Research
    • /
    • 제61권3호
    • /
    • pp.388-393
    • /
    • 2023
  • 지도 학습 기반의 신경 망을 활용한 공학적 자료의 분석은 화학공학 공정 최적화, 미세 먼지 농도 추정, 열역학적 상평형 예측, 이동 현상 계의 물성 예측 등 다양한 분야에서 활용되고 있다. 신경 망의 지도 학습은 학습 자료를 요구하며, 주어진 학습 자료의 구성에 따라 학습 성능이 영향을 받는다. 빈번히 관찰되는 공학적 자료 중에는 DNA의 길이, 분석 물질의 농도 등과 같이 로그 간격으로 주어지는 자료들이 존재한다. 본 연구에서는 넓은 범위에 분포된 로그 간격의 학습 자료를 기계 학습으로 처리하는 경우, 사용 가능한 손실 함수들의 학습 성능을 정량적으로 평가하였으며, 적합한 학습 자료 구성 방식을 연구하였다. 이를 수행하고자, 100×100의 가상 이미지를 활용하여 기계 학습의 회귀 과업을 구성하였다. 4개의 손실 함수들에 대하여 (i) 오차 행렬, (ii) 최대 상대 오차, (iii) 평균 상대 오차로 정량적 평가하여, mape 혹은 msle가 본 연구에서 다룬 과업에 대해 최적의 손실 함수가 됨을 알아내었다. 또한, 학습 자료의 값이 넓은 범위에 걸쳐 분포하는 경우, 학습 자료의 구성을 로그 간격 등을 고려하여 균등 선별하는 방식이 높은 학습 성능을 보임을 밝혀내었다. 본 연구에서 다룬 회귀 과업은 DNA의 길이 예측, 생체 유래 분자 분석, 콜로이드 용액의 농도 추정 등의 공학적 과업에 적용 가능하며, 본 결과를 활용하여 기계 학습의 성능과 학습 효율의 증대를 기대할 수 있을 것이다.

스마트폰 로봇의 위치 인식을 위한 준 지도식 학습 기법 (Semi-supervised Learning for the Positioning of a Smartphone-based Robot)

  • 유재현;김현진
    • 제어로봇시스템학회논문지
    • /
    • 제21권6호
    • /
    • pp.565-570
    • /
    • 2015
  • Supervised machine learning has become popular in discovering context descriptions from sensor data. However, collecting a large amount of labeled training data in order to guarantee good performance requires a great deal of expense and time. For this reason, semi-supervised learning has recently been developed due to its superior performance despite using only a small number of labeled data. In the existing semi-supervised learning algorithms, unlabeled data are used to build a graph Laplacian in order to represent an intrinsic data geometry. In this paper, we represent the unlabeled data as the spatial-temporal dataset by considering smoothly moving objects over time and space. The developed algorithm is evaluated for position estimation of a smartphone-based robot. In comparison with other state-of-art semi-supervised learning, our algorithm performs more accurate location estimates.

준감독 학습과 공간 유사성을 이용한 비접근 지역의 작물 분류 - 북한 대홍단 지역 사례 연구 - (Crop Classification for Inaccessible Areas using Semi-Supervised Learning and Spatial Similarity - A Case Study in the Daehongdan Region, North Korea -)

  • 곽근호;박노욱;이경도;최기영
    • 대한원격탐사학회지
    • /
    • 제33권5_2호
    • /
    • pp.689-698
    • /
    • 2017
  • 이 논문에서는 비접근 지역의 작물 분류를 목적으로 준감독 학습에 인접 화소의 공간 유사성 정보를 결합하는 분류 방법론을 제안하였다. 적은 수의 훈련 자료를 이용한 초기 분류 결과로부터 신뢰성 높은 훈련 자료의 추출을 위해 준감독 학습 기반의 반복 분류를 적용하였으며, 새롭게 훈련 자료 추출시 인접한 화소의 분류 항목을 고려함으로써 불확실성이 낮은 훈련 자료를 추출하고자 하였다. 북한 대홍단에서 수집된 다중시기 Landsat-8 OLI 영상을 이용한 밭작물 구분의 사례 연구를 통해 제안된 분류 방법론의 적용 가능성을 검토하였다. 사례 연구 결과, 초기 분류 결과에서 나타난 작물과 산림의 오분류와 고립된 화소가 제안 분류 방법론에서 완화되었다. 또한 인접 화소의 분류 결과를 고려한 훈련 자료 추출을 통해 이러한 오분류 완화 효과가 더욱 두드러지게 나타났으며, 초기 분류 결과와 기존 준감독 학습에 비해 고립된 화소도 감소되었다. 따라서 비접근 지역으로 인해 훈련 자료의 확보가 어려울 경우 이 연구에서 제안된 방법론이 작물 분류에 유용하게 적용될 수 있을 것으로 기대된다.

준지도 학습 기반 객체 탐지 모델에서 데이터셋 변화에 따른 성능 변화 (Performance Change accroding to Data Set Size Change in Semi-Supervised Learning based Object Detection)

  • 유승수;황원준
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.88-90
    • /
    • 2022
  • Semi Supervised Learning 은 일부의 data 에는 labeling 을 하고 나머지 data 에는 labeling 을 안한채로 학습을 진행하는 방법이다. Object Detection 은 이미지에서 여러개의 객체들의 대한 위치를 여러개의 바운딩 박스로 지정해서 찾는 Computer Vision task 이다. 당연하게도, model training 단계에서 사용되는 data set 의 크기가 크고 객체가 많을 수록 일반적으로 model 의 성능이 좋아 질 것이다. 하지만 실험 환경에 따라 data set 을 잘 확보하지 못하던가, 실험 장치가 데이터 셋을 감당하지 못하는 등의 문제가 발생 할 수 있다. 그렇기에 본 논문에서는 semi supervised learning based object detection model 을 알아보고 data set 의 크기를 조절해가며 modle 을 training 시킨 뒤 data set 의 크기에 따라 성능이 어떻게 변화하는 지를 알아 볼 것이다.

  • PDF