• 제목/요약/키워드: curse of dimension

검색결과 14건 처리시간 0.022초

A Classification Method Using Data Reduction

  • Uhm, Daiho;Jun, Sung-Hae;Lee, Seung-Joo
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제12권1호
    • /
    • pp.1-5
    • /
    • 2012
  • Data reduction has been used widely in data mining for convenient analysis. Principal component analysis (PCA) and factor analysis (FA) methods are popular techniques. The PCA and FA reduce the number of variables to avoid the curse of dimensionality. The curse of dimensionality is to increase the computing time exponentially in proportion to the number of variables. So, many methods have been published for dimension reduction. Also, data augmentation is another approach to analyze data efficiently. Support vector machine (SVM) algorithm is a representative technique for dimension augmentation. The SVM maps original data to a feature space with high dimension to get the optimal decision plane. Both data reduction and augmentation have been used to solve diverse problems in data analysis. In this paper, we compare the strengths and weaknesses of dimension reduction and augmentation for classification and propose a classification method using data reduction for classification. We will carry out experiments for comparative studies to verify the performance of this research.

Fused inverse regression with multi-dimensional responses

  • Cho, Youyoung;Han, Hyoseon;Yoo, Jae Keun
    • Communications for Statistical Applications and Methods
    • /
    • 제28권3호
    • /
    • pp.267-279
    • /
    • 2021
  • A regression with multi-dimensional responses is quite common nowadays in the so-called big data era. In such regression, to relieve the curse of dimension due to high-dimension of responses, the dimension reduction of predictors is essential in analysis. Sufficient dimension reduction provides effective tools for the reduction, but there are few sufficient dimension reduction methodologies for multivariate regression. To fill this gap, we newly propose two fused slice-based inverse regression methods. The proposed approaches are robust to the numbers of clusters or slices and improve the estimation results over existing methods by fusing many kernel matrices. Numerical studies are presented and are compared with existing methods. Real data analysis confirms practical usefulness of the proposed methods.

Faults detection and identification for gas turbine using DNN and LLM

  • Oliaee, Seyyed Mohammad Emad;Teshnehlab, Mohammad;Shoorehdeli, Mahdi Aliyari
    • Smart Structures and Systems
    • /
    • 제23권4호
    • /
    • pp.393-403
    • /
    • 2019
  • Applying more features gives us better accuracy in modeling; however, increasing the inputs causes the curse of dimensions. In this paper, a new structure has been proposed for fault detecting and identifying (FDI) of high-dimensional systems. This structure consist of two structure. The first part includes Auto-Encoders (AE) as Deep Neural Networks (DNNs) to produce feature engineering process and summarize the features. The second part consists of the Local Model Networks (LMNs) with LOcally LInear MOdel Tree (LOLIMOT) algorithm to model outputs (multiple models). The fault detection is based on these multiple models. Hence the residuals generated by comparing the system output and multiple models have been used to alarm the faults. To show the effectiveness of the proposed structure, it is tested on single-shaft industrial gas turbine prototype model. Finally, a brief comparison between the simulated results and several related works is presented and the well performance of the proposed structure has been illustrated.

기계학습 기반 랜섬웨어 공격 탐지를 위한 효과적인 특성 추출기법 비교분석 (Comparative Analysis of Dimensionality Reduction Techniques for Advanced Ransomware Detection with Machine Learning)

  • 김한석;이수진
    • 융합보안논문지
    • /
    • 제23권1호
    • /
    • pp.117-123
    • /
    • 2023
  • 점점 더 고도화되고 있는 랜섬웨어 공격을 기계학습 기반 모델로 탐지하기 위해서는, 분류 모델이 고차원의 특성을 가지는 학습데이터를 훈련해야 한다. 그리고 이 경우 '차원의 저주' 현상이 발생하기 쉽다. 따라서 차원의 저주 현상을 회피하면서 학습모델의 정확성을 높이고 실행 속도를 향상하기 위해 특성의 차원 축소가 반드시 선행되어야 한다. 본 논문에서는 특성의 차원이 극단적으로 다른 2종의 데이터세트를 대상으로 3종의 기계학습 모델과 2종의 특성 추출기법을 적용하여 랜섬웨어 분류를 수행하였다. 실험 결과, 이진 분류에서는 특성 차원 축소기법이 성능 향상에 큰 영향을 미치지 않았으며, 다중 분류에서도 데이터세트의 특성 차원이 작을 경우에는 동일하였다. 그러나 학습데이터가 고차원의 특성을 가지는 상황에서 다중 분류를 시도했을 경우 LDA(Linear Discriminant Analysis)가 우수한 성능을 나타냈다.

Decomposable polynomial response surface method and its adaptive order revision around most probable point

  • Zhang, Wentong;Xiao, Yiqing
    • Structural Engineering and Mechanics
    • /
    • 제76권6호
    • /
    • pp.675-685
    • /
    • 2020
  • As the classical response surface method (RSM), the polynomial RSM is so easy-to-apply that it is widely used in reliability analysis. However, the trade-off of accuracy and efficiency is still a challenge and the "curse of dimension" usually confines RSM to low dimension systems. In this paper, based on the univariate decomposition, the polynomial RSM is executed in a new mode, called as DPRSM. The general form of DPRSM is given and its implementation is designed referring to the classical RSM firstly. Then, in order to balance the accuracy and efficiency of DPRSM, its adaptive order revision around the most probable point (MPP) is proposed by introducing the univariate polynomial order analysis, noted as RDPRSM, which can analyze the exact nonlinearity of the limit state surface in the region around MPP. For testing the proposed techniques, several numerical examples are studied in detail, and the results indicate that DPRSM with low order can obtain similar results to the classical RSM, DPRSM with high order can obtain more precision with a large efficiency loss; RDPRSM can perform a good balance between accuracy and efficiency and preserve the good robustness property meanwhile, especially for those problems with high nonlinearity and complex problems; the proposed methods can also give a good performance in the high-dimensional cases.

Smoothed Local PC0A by BYY data smoothing learning

  • Liu, Zhiyong;Xu, Lei
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.109.3-109
    • /
    • 2001
  • The so-called curse of dimensionality arises when Gaussian mixture is used on high-dimensional small-sample-size data, since the number of free elements that needs to be specied in each covariance matrix of Gaussian mixture increases exponentially with the number of dimension d. In this paper, by constraining the covariance matrix in its decomposed orthonormal form we get a local PCA model so as to reduce the number of free elements needed to be specified. Moreover, to cope with the small sample size problem, we adopt BYY data smoothing learning which is a regularization over maximum likelihood learning obtained from BYY harmony learning to implement this local PCA model.

  • PDF

감성 인식을 위한 강화학습 기반 상호작용에 의한 특징선택 방법 개발 (Reinforcement Learning Method Based Interactive Feature Selection(IFS) Method for Emotion Recognition)

  • 박창현;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제12권7호
    • /
    • pp.666-670
    • /
    • 2006
  • This paper presents the novel feature selection method for Emotion Recognition, which may include a lot of original features. Specially, the emotion recognition in this paper treated speech signal with emotion. The feature selection has some benefits on the pattern recognition performance and 'the curse of dimension'. Thus, We implemented a simulator called 'IFS' and those result was applied to a emotion recognition system(ERS), which was also implemented for this research. Our novel feature selection method was basically affected by Reinforcement Learning and since it needs responses from human user, it is called 'Interactive feature Selection'. From performing the IFS, we could get 3 best features and applied to ERS. Comparing those results with randomly selected feature set, The 3 best features were better than the randomly selected feature set.

중도절단 회귀모형에서 역절단확률가중 방법 간의 비교연구 (A comparison study of inverse censoring probability weighting in censored regression)

  • 신정민;김형우;신승준
    • 응용통계연구
    • /
    • 제34권6호
    • /
    • pp.957-968
    • /
    • 2021
  • 역중도절단확률가중(inverse censoring probability weighting, ICPW)은 생존분석에서 흔히 사용되는 방법이다. 중도절단 회귀모형과 같은 ICPW 방법의 응용에 있어서 중도절단 확률의 정확한 추정은 핵심적인 요소라고 할 수 있다. 본 논문에서는 중도절단 확률의 추정이 ICPW 기반 중도절단 회귀모형의 성능에 어떠한 영향을 주는지 모의실험을 통하여 알아보았다. 모의실험에서는 Kaplan-Meier 추정량, Cox 비례위험(proportional hazard) 모형 추정량, 그리고 국소 Kaplan-Meier 추정량 세 가지를 비교하였다. 국소 KM 추정량에 대해서는 차원의 저주를 피하기 위해 공변량의 차원축소 방법을 추가적으로 적용하였다. 차원축소 방법으로는 흔히 사용되는 주성분분석(principal component analysis, PCA)과 절단역회귀(sliced inverse regression)방법을 고려하였다. 그 결과 Cox 비례위험 추정량이 평균 및 중위수 중도절단 회귀모형 모두에서 중도절단 확률을 추정하는 데 가장 좋은 성능을 보여주었다.

다변량회귀에서 주선택 반응변수 차원축소 (Principal selected response reduction in multivariate regression)

  • 유재근
    • 응용통계연구
    • /
    • 제34권4호
    • /
    • pp.659-669
    • /
    • 2021
  • 다변량 회귀분석은 경시적 자료분석이나 함수적 자료분석 등 다양한 분야에서 빈번하게 사용되는 통계적 방법론이다. 다변량 회귀분석은 설명변수의 차원 뿐만 아니라 반응변수의 차원때문에 일변량 회귀분석에서 보다 차원의 저주문제에 더 강한 영향을 받는다. 이러한 문제를 해결하기 위해 최근 Yoo (2018)와 Yoo (2019a)에 세 가지 모형기반 반응변수 차원축소 방법이 제시되었다. 하지만 Yoo (2019a)에서 제시한 기본 방법은 모의실험 결과 모형에 가장 영향을 덜 받지만, 다른 두 방법 중 더 나은 방법보다 더 좋은 추정결과를 제시하지 못한다. 이러한 단점을 극복하기 위해 본 논문에서는 기본 방법의 결과 다른 두 방법의 결과를 비교하여, 자료에 따라 최선의 방법을 제시하는 선택 알고리듬을 제시하고, 이를 주선택 반응변수 차원축소라 명명한다. 다양한 모의실험 결과 주선택 반응변수 차원축소는 Yoo (2019a)의 기본방법보다 더 정확하게 차원을 축소하고, 모든 경우에 있더 더 바람직한 방법을 선택함을 확인할 수 있다. 이러한 결과로 제안한 주선택 반응변수의 차원축소 방법의 실제적 유용성을 확인할 수 있다.

감정 인식을 위한 Interactive Feature Selection(IFS) 알고리즘 (Interactive Feature selection Algorithm for Emotion recognition)

  • 양현창;김호덕;박창현;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.647-652
    • /
    • 2006
  • 본 논문은 일반적으로 많은 특징들을 갖고 있는 패턴 분류 문제인 감정 인식을 위한 새로운 특징 선택 방법을 제안한다. '특징 선택'은 패턴 인식 성능의 향상에 기여하고 '차원의 저주'문제에도 좋은 해결책으로 많이 사용되는 방법이다. 그래서, 본 논문에서는 강화학습의 개념을 사용한 상호 작용에 의한 특징 선택 방법인 IFS(Interactiv Feature Selection)를 고안하였고 이 알고리즘을 사용하여 선택된 특징들을 감정 인식 시스템에 적용하여 성능이 향상됨을 확인하였다. 또한 기존의 특징 선택 방법과의 비교를 통하여 본 알고리즘의 우수성을 확인하였다.