• 제목/요약/키워드: Features selection technique

검색결과 116건 처리시간 0.029초

사용자의 False belief를 이용한 새로운 기능 선택방식에 대한 연구 (Development of a feature selection technique on users' false beliefs)

  • 이장선;최경현;김지은;류호경
    • 한국HCI학회논문지
    • /
    • 제9권2호
    • /
    • pp.33-40
    • /
    • 2014
  • 신제품/서비스를 설계함에 있어 해당 제품 혹은 서비스가 제공하여야 할 기능을 선정하는 것(feature selection)은 디자이너의 매우 어려운 의사결정 문제이지만, 기존 방법론들은 특정 제품-서비스에 대한 사용자의 니즈를 효과적으로 파악하기에는 한계점이 있다. 특히 기존의 선호도 서베이를 통한 방법은 사용자의 멘탈모델에 대한 분석에 기반하지 않기에 기능과부화(feature creep) 현상의 한 원인으로 지적되고 있다. 본 연구는 사용자에게 새로운 기능을 제공할 경우(혹은 제공된 기능을 제거해야 할 경우), 그 기능으로부터 추론되는 제품-서비스의 멘탈모델을 탐지하는 새로운 기법인 'False belief technique'을 제안하고, 이를 통해 디자이너의 기능 선정(feature selection) 의사결정에 활용될 수 있도록 하고자 한다.

Gait-Based Gender Classification Using a Correlation-Based Feature Selection Technique

  • Beom Kwon
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.55-66
    • /
    • 2024
  • 성별 분류 기술은 법의학, 감시 시스템, 인구 통계 연구 등 다양한 분야에서 활용될 수 있기 때문에, 연구자들로부터 많은 관심을 받고 있다. 남성과 여성의 보행 사이에는 서로 구별되는 특징이 있다는 것이 기존 연구들에서 밝혀지면서, 3차원 보행 데이터에서 성별을 분류하는 다양한 기술들이 제안됐다. 하지만, 기존 기술들을 사용해 3차원 보행 데이터로부터 추출한 보행 특징 중에는 서로 유사 또는 중복되거나 성별 분류에 도움이 되지 않는 특징들도 있다. 이에 본 연구에서는 상관관계 기반 특징 선별 기술을 활용해, 성별 분류에 도움이 되는 특징들을 선별하는 방법을 제안한다. 그리고 제안하는 특징 선별 기술의 효용성을 입증하기 위해서, 인터넷상에 공개된 3차원 보행 데이터 세트(Dataset)를 활용하여 제안하는 특징 선별 기술을 적용하기 전과 후에 대해 성별 분류 모델들의 성능을 비교 분석하였다. 실험에는 이진 분류 문제에 적용할 수 있는 여덟 가지의 머신러닝 알고리즘(Machine Learning Algorithms)을 활용하였다. 실험 결과, 제안하는 특징 선별 기술을 사용하면 성별 분류 성능은 유지하면서, 특징의 개수를 82개에서 60개까지, 22개를 줄일 수 있다는 것을 입증하였다.

A Feature Selection Technique based on Distributional Differences

  • Kim, Sung-Dong
    • Journal of Information Processing Systems
    • /
    • 제2권1호
    • /
    • pp.23-27
    • /
    • 2006
  • This paper presents a feature selection technique based on distributional differences for efficient machine learning. Initial training data consists of data including many features and a target value. We classified them into positive and negative data based on the target value. We then divided the range of the feature values into 10 intervals and calculated the distribution of the intervals in each positive and negative data. Then, we selected the features and the intervals of the features for which the distributional differences are over a certain threshold. Using the selected intervals and features, we could obtain the reduced training data. In the experiments, we will show that the reduced training data can reduce the training time of the neural network by about 40%, and we can obtain more profit on simulated stock trading using the trained functions as well.

Deep Learning Method for Identification and Selection of Relevant Features

  • Vejendla Lakshman
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.212-216
    • /
    • 2024
  • Feature Selection have turned into the main point of investigations particularly in bioinformatics where there are numerous applications. Deep learning technique is a useful asset to choose features, anyway not all calculations are on an equivalent balance with regards to selection of relevant features. To be sure, numerous techniques have been proposed to select multiple features using deep learning techniques. Because of the deep learning, neural systems have profited a gigantic top recovery in the previous couple of years. Anyway neural systems are blackbox models and not many endeavors have been made so as to examine the fundamental procedure. In this proposed work a new calculations so as to do feature selection with deep learning systems is introduced. To evaluate our outcomes, we create relapse and grouping issues which enable us to think about every calculation on various fronts: exhibitions, calculation time and limitations. The outcomes acquired are truly encouraging since we figure out how to accomplish our objective by outperforming irregular backwoods exhibitions for each situation. The results prove that the proposed method exhibits better performance than the traditional methods.

Sparse and low-rank feature selection for multi-label learning

  • Lim, Hyunki
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권7호
    • /
    • pp.1-7
    • /
    • 2021
  • 본 논문에서는 다중 레이블 분류를 위한 특징 선별 기법을 제안한다. 기존 많은 특징 선별 기법들은 상호정보척도 등을 이용하여 특징과 레이블 사이의 연관성을 계산하여 특징을 선별하였다. 하지만 상호정보척도는 결합 확률을 요구하기 때문에 실제 전제 특징 집합에서 결합 확률을 계산하는 것은 어렵다. 따라서 소수의 특징만 계산이 가능하여 지역적 최적화만 가능하다는 단점을 가진다. 이런 지역적 최적화 문제를 피해, 주어진 특징 전체 공간에서 저랭크 공간을 구성하고, 희소성을 가진 특징들을 선별할 수 있는 특징 선별 기법을 제안한다. 이를 위해 뉴클리어 노름을 이용해 회귀 기반의 목적함수를 설계하였고, 이 목적 함수의 최적화 문제를 풀기 위한 경사하강법 방식의 알고리즘을 제안하였다. 4가지의 데이터와 3가지 다중 레이블 분류 성능을 기준으로 다중 레이블 분류 실험 결과를 통해 제안하는 방법론이 기존 특징 선별 기법보다 좋은 성능을 나타내는 것을 보였다. 또한 제안하는 목적함수의 파라미터 값 변화에도 성능 변화가 둔감한 것을 실험적인 결과로 확인하였다.

단변량 분석과 LVF 알고리즘을 결합한 하이브리드 속성선정 방법 (A Hybrid Feature Selection Method using Univariate Analysis and LVF Algorithm)

  • 이재식;정미경
    • 지능정보연구
    • /
    • 제14권4호
    • /
    • pp.179-200
    • /
    • 2008
  • 본 연구에서는 사례기반 추론 기법을 대상으로 효율성과 효과성을 함께 증진시킬 수 있는 속성선정 방법을 개발하였다. 기본적으로, 본 연구에서 개발한 속성선정 방법은 기존에 개발된 단변량 분석 방법과 LVF 알고리즘을 통합하는 것이다. 먼저, 단변량 분석 방법 중 선택효과를 사용하여 전체 속성 중에서 예측력이 우수하다고 판단되는 일부분의 속성들을 추려낸다. 이 속성들로부터 생성해낼 수 있는 모든 가능한 부분집합을 생성해낸 후에, LVF 알고리즘을 이용하여 이 부분집합들이 가지는 불일치 비율을 평가함으로써 최종적으로 속성 부분집합을 선정한다. 본 연구에서 개발한 속성선정 방법을 UCI에서 제공하는 데이터 집합들에 적용하여 성능을 측정한 후, 기존 기법의 성능들과 비교한 결과, 본 연구에서 개발된 속성선정 방법이 선정된 속성의 개수도 만족할만하고 적중률도 향상되어서, 효율성과 효과성 모두의 측면에서 우수함을 보였다.

  • PDF

Diagnosis of Alzheimer's Disease using Wrapper Feature Selection Method

  • 비슈나비 라미네니;권구락
    • 스마트미디어저널
    • /
    • 제12권3호
    • /
    • pp.30-37
    • /
    • 2023
  • Alzheimer's disease (AD) symptoms are being treated by early diagnosis, where we can only slow the symptoms and research is still undergoing. In consideration, using T1-weighted images several classification models are proposed in Machine learning to identify AD. In this paper, we consider the improvised feature selection, to reduce the complexity by using wrapping techniques and Restricted Boltzmann Machine (RBM). This present work used the subcortical and cortical features of 278 subjects from the ADNI dataset to identify AD and sMRI. Multi-class classification is used for the experiment i.e., AD, EMCI, LMCI, HC. The proposed feature selection consists of Forward feature selection, Backward feature selection, and Combined PCA & RBM. Forward and backward feature selection methods use an iterative method starting being no features in the forward feature selection and backward feature selection with all features included in the technique. PCA is used to reduce the dimensions and RBM is used to select the best feature without interpreting the features. We have compared the three models with PCA to analysis. The following experiment shows that combined PCA &RBM, and backward feature selection give the best accuracy with respective classification model RF i.e., 88.65, 88.56% respectively.

거리 기반의 특징 선택을 이용한 간질 분류 (Classification of Epilepsy Using Distance-Based Feature Selection)

  • 이상홍
    • 디지털융복합연구
    • /
    • 제12권8호
    • /
    • pp.321-327
    • /
    • 2014
  • 특징 선택은 중복 또는 서로간의 관련이 없는 특징을 제거하여 분류 성능을 향상시키는 기술이다. 본 논문에서는 가중 퍼지소속함수 기반 신경망 (Neural Network with Weighted Fuzzy Membership Functions; NEWFM)에서 제공하는 가중 퍼지소속함수의 경계합 (Bounded Sum of Weighted Fuzzy Membership functions, BSWFM)의 무게중심간의 거리를 이용한 새로운 특징 선택을 제안하여 분류 성능을 향상시켰다. 이러한 거리 기반의 특징 선택을 이용하여 초기 24개의 특징으로부터 무게중심간의 거리가 짧은 특징을 하나씩 제거되면서 분류 성능이 가능 높은 22개의 최소 특징을 선택하였다. 이들 22개의 최소 특징을 NEWFM의 입력으로 사용하여 97.7%, 99.7%, 98.7%의 민감도, 특이도, 정확도를 각각 구하였다.

A progressive study of the sausage mode wave on the pore: the pore-selection technique

  • 조일현;김연한;조경석;봉수찬;박영득
    • 천문학회보
    • /
    • 제38권1호
    • /
    • pp.66.2-66.2
    • /
    • 2013
  • In this study, we present a pore-selection technique to estimate the size of pore. The estimation of the size of pore is important to examine the temporal evolution of size itself and corresponding intensity. The size of pore is typically estimated by applying the intensity threshold technique to the fixed box which contains the entire pore. The typical method has disadvantages in the following circumstances; there are small features near the pore or the image has low spatial resolution. In the former, it is difficult to define a box containing the pore only, excluding the small features near the pore. In the latter, the background and threshold intensity are insignificant due to the insufficient number of pixel in the box. To avoid these difficulties, we use a pore-selection technique which is simply based on the measurement of distances from the pore center. In addition, we will discuss the advantage of the technique for the imaging spectrograph data like the NST FISS.

  • PDF

A comparative study of filter methods based on information entropy

  • Kim, Jung-Tae;Kum, Ho-Yeun;Kim, Jae-Hwan
    • Journal of Advanced Marine Engineering and Technology
    • /
    • 제40권5호
    • /
    • pp.437-446
    • /
    • 2016
  • Feature selection has become an essential technique to reduce the dimensionality of data sets. Many features are frequently irrelevant or redundant for the classification tasks. The purpose of feature selection is to select relevant features and remove irrelevant and redundant features. Applications of the feature selection range from text processing, face recognition, bioinformatics, speaker verification, and medical diagnosis to financial domains. In this study, we focus on filter methods based on information entropy : IG (Information Gain), FCBF (Fast Correlation Based Filter), and mRMR (minimum Redundancy Maximum Relevance). FCBF has the advantage of reducing computational burden by eliminating the redundant features that satisfy the condition of approximate Markov blanket. However, FCBF considers only the relevance between the feature and the class in order to select the best features, thus failing to take into consideration the interaction between features. In this paper, we propose an improved FCBF to overcome this shortcoming. We also perform a comparative study to evaluate the performance of the proposed method.