• 제목/요약/키워드: Small Sample Size Problem

검색결과 55건 처리시간 0.024초

LDA를 이용한 얼굴인식에서의 Small Sample Size문제 해결을 위한 Resampling 방법 (A Resampling Method for Small Sample Size Problems in Face Recognition using LDA)

  • 오재현;곽노준
    • 대한전자공학회논문지SP
    • /
    • 제46권2호
    • /
    • pp.78-88
    • /
    • 2009
  • 본 논문에서는 LDA를 이용한 얼굴 인식에서 발생하는 small sample size 문제를 해결하기 위한 효율적인 방법인 resampling 방법을 제안한다. 기존에는 regularization method를 사용하여 small sample size 문제를 해결하였는데, 이 방법을 사용하면 클래스내 분산행렬의 특이성을 없앨 수 있지만, 클래스내 분산행렬과 상수를 곱하는 과정에서 상수 값을 임의로 정해 주어야 하고, 이 상수 값에 따라 인식률이 개선되지 않을 수 있다는 문제점이 발생한다. 제안된 resampling 방법을 이용하여 학습 데이터의 수를 늘리면, regularization method보다 개선된 인식률을 얻을 수 있고, 또한 경험적으로 상수 값을 지정해 주는 과정을 거치지 않아도 되는 장점이 있다.

다단계 퓨전기법을 이용한 비유사도 기반 식별기의 최적화 (On Optimizing Dissimilarity-Based Classifier Using Multi-level Fusion Strategies)

  • 김상운;로버트 듀인
    • 전자공학회논문지CI
    • /
    • 제45권5호
    • /
    • pp.15-24
    • /
    • 2008
  • 얼굴인식 등과 같은 고차원 식별문제에서는 샘플패턴의 수가 패턴의 차원보다 작아지게 된다. 이러한 상황에서 차원을 축소하기위해 선형판별분석법을 적용할 경우, 희소성(Small Sample Size: SSS)문제가 발생한다. 최근, SSS 문제를 해결하기 위하여 비유사도에 기반 한 식별법(Dissimilarity-Based Classification: DBC)을 이용하는 방법이 검토되었다. DBC에서는 특징 벡터 대신에 학습 샘플들로부터 추출한 프로토타입들과의 비유사도를 측정하여 입력 패턴을 식별하는 방법이다. 본 논문에서는 비유사도 표현단계와 DBC 학습단계에서 퓨전기법을 중복 적용하는 다단계 퓨전기법(Multi-level Fusion Strategies: MFS)으로 DBCs를 최적화시키는 방법을 제안한다. 제안 방법을 벤취마크 얼굴영상 데이터베이스를 대상으로 실험한 결과, 식별률을 향상시킬 수 있음을 확인하였다.

Elongated Radial Basis Function for Nonlinear Representation of Face Data

  • 김상기;유선진;이상윤
    • 한국통신학회논문지
    • /
    • 제36권7C호
    • /
    • pp.428-434
    • /
    • 2011
  • Recently, subspace analysis has raised its performance to a higher level through the adoption of kernel-based nonlinearity. Especially, the radial basis function, based on its nonparametric nature, has shown promising results in face recognition. However, due to the endemic small sample size problem of face data, the conventional kernel-based feature extraction methods have difficulty in data representation. In this paper, we introduce a novel variant of the RBF kernel to alleviate this problem. By adopting the concept of the nearest feature line classifier, we show both effectiveness and generalizability of the proposed method, particularly regarding the small sample size issue.

극소 비율의 비교에 대한 표본수 결정 (Sample Size Determination for Comparing Tail Probabilities)

  • 이지안;송혜향
    • 응용통계연구
    • /
    • 제20권1호
    • /
    • pp.183-194
    • /
    • 2007
  • 이 논문에서는 두 독립인 이항 확률의 비교에서 이항 확률 중 하나 또는 모두가 0.05보다 작을 경우의 두 확률의 비교에 대한 표본수 계산의 문제를 다루었다. Whitte-more(1981)는 여러 공변량에 근거한 로지스틱 회귀를 이용하여 극소 확률의 경우에 대한 수정 표본수 공식을 제안하였다. 이를 독립된 비율의 비교에 적용하여 이로부터 계산한 표본수는 일반적으로 많이 사용하는 근사 정규 방법, 특히 극소 비율의 비교에 대한 방법이 아닌 근사 정규 방법의 표본수 보다도 훨씬 큰 표본수를 제시하고 있다. 그러므로, 응용분야의 통계인들은 극소 반응 확률에 근거한 임상 시험을 계획할 경우 계획의 단계에서 의도하는 검정력을 확보하기 위해 교과서에 제시된 표본수 공식이나 부표에 의존한다면 위험할 수 있음을 이 논문의 결과가 말해 주고 있다.

Smoothed Local PC0A by BYY data smoothing learning

  • Liu, Zhiyong;Xu, Lei
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.109.3-109
    • /
    • 2001
  • The so-called curse of dimensionality arises when Gaussian mixture is used on high-dimensional small-sample-size data, since the number of free elements that needs to be specied in each covariance matrix of Gaussian mixture increases exponentially with the number of dimension d. In this paper, by constraining the covariance matrix in its decomposed orthonormal form we get a local PCA model so as to reduce the number of free elements needed to be specified. Moreover, to cope with the small sample size problem, we adopt BYY data smoothing learning which is a regularization over maximum likelihood learning obtained from BYY harmony learning to implement this local PCA model.

  • PDF

An Improved method of Two Stage Linear Discriminant Analysis

  • Chen, Yarui;Tao, Xin;Xiong, Congcong;Yang, Jucheng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권3호
    • /
    • pp.1243-1263
    • /
    • 2018
  • The two-stage linear discrimination analysis (TSLDA) is a feature extraction technique to solve the small size sample problem in the field of image recognition. The TSLDA has retained all subspace information of the between-class scatter and within-class scatter. However, the feature information in the four subspaces may not be entirely beneficial for classification, and the regularization procedure for eliminating singular metrics in TSLDA has higher time complexity. In order to address these drawbacks, this paper proposes an improved two-stage linear discriminant analysis (Improved TSLDA). The Improved TSLDA proposes a selection and compression method to extract superior feature information from the four subspaces to constitute optimal projection space, where it defines a single Fisher criterion to measure the importance of single feature vector. Meanwhile, Improved TSLDA also applies an approximation matrix method to eliminate the singular matrices and reduce its time complexity. This paper presents comparative experiments on five face databases and one handwritten digit database to validate the effectiveness of the Improved TSLDA.

A CONSISTENT AND BIAS CORRECTED EXTENSION OF AKAIKE'S INFORMATION CRITERION(AIC) : AICbc(k)

  • Kwon, Soon H.;Ueno, M.;Sugeno, M.
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제2권1호
    • /
    • pp.41-60
    • /
    • 1998
  • This paper derives a consistent and bias corrected extension of Akaike's Information Criterion (AIC), $AIC_{bc}$, based on Kullback-Leibler information. This criterion has terms that penalize the overparametrization more strongly for small and large samples than that of AIC. The overfitting problem of the asymptotically efficient model selection criteria for small and large samples will be overcome. The $AIC_{bc}$ also provides a consistent model order selection. Thus, it is widely applicable to data with small and/or large sample sizes, and to cases where the number of free parameters is a relatively large fraction of the sample size. Relationships with other model selection criteria such as $AIC_c$ of Hurvich, CAICF of Bozdogan and etc. are discussed. Empirical performances of the $AIC_{bc}$ are studied and discussed in better model order choices of a linear regression model using a Monte Carlo experiment.

  • PDF

A Bayesian inference for fixed effect panel probit model

  • Lee, Seung-Chun
    • Communications for Statistical Applications and Methods
    • /
    • 제23권2호
    • /
    • pp.179-187
    • /
    • 2016
  • The fixed effects panel probit model faces "incidental parameters problem" because it has a property that the number of parameters to be estimated will increase with sample size. The maximum likelihood estimation fails to give a consistent estimator of slope parameter. Unlike the panel regression model, it is not feasible to find an orthogonal reparameterization of fixed effects to get a consistent estimator. In this note, a hierarchical Bayesian model is proposed. The model is essentially equivalent to the frequentist's random effects model, but the individual specific effects are estimable with the help of Gibbs sampling. The Bayesian estimator is shown to reduce reduced the small sample bias. The maximum likelihood estimator in the random effects model is also efficient, which contradicts Green (2004)'s conclusion.

Choosing between the Exact and the Approximate Confidence Intervals: For the Difference of Two Independent Binomial Proportions

  • Lee, Seung-Chun
    • Communications for Statistical Applications and Methods
    • /
    • 제16권2호
    • /
    • pp.363-372
    • /
    • 2009
  • The difference of two independent binomial proportions is frequently of interest in biomedical research. The interval estimation may be an important tool for the inferential problem. Many confidence intervals have been proposed. They can be classified into the class of exact confidence intervals or the class of approximate confidence intervals. Ore may prefer exact confidence interval s in that they guarantee the minimum coverage probability greater than the nominal confidence level. However, someone, for example Agresti and Coull (1998) claims that "approximation is better than exact." It seems that when sample size is large, the approximate interval is more preferable to the exact interval. However, the choice is not clear when sample, size is small. In this note, an exact confidence and an approximate confidence interval, which were recommended by Santner et al. (2007) and Lee (2006b), respectively, are compared in terms of the coverage probability and the expected length.

잡음영상에서 효과적인 에지검출을 위한 이표본 선형 순위 검정법 (Two-sample Linear Rank Tests for Efficient Edge Detection in Noisy Images)

  • 임동훈
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권4호
    • /
    • pp.9-15
    • /
    • 2006
  • 본 논문에서는 잡음영상에서 효과적인 에지검출을 위해 이표본 위치문제(two-sample location Problem)에서 잘 알려진 선형 순위 검정법(linear raft test)인 Wilcoxon 검정법, Median 검정법 그리고 Van der Waerden 검정법을 적용하고자 한다. 에지 존재 유무는 에지-높이 모수(edge-height parameter)를 사용한 모형 하에서 인접한 두 개의 근방영역간의 평균 차이를 검정함으로서 통계적으로 결정한다. 여기서 근방영역의 크기와 형태는 에지검출을 위한 계산 속도와 에지방향을 고려하여 적응성 있게(adaptively) 결정하였다. 통계적 방법들의 에지검출 성능을 평가하기 위해 자연영상(natural images)과 인조영상(synthetic images) 그리고 잡음이 추가된 영상에 대해 실험을 실시하고 비교 분석하였다.

  • PDF