• Title/Summary/Keyword: 리듬 분류

Search Result 203, Processing Time 0.029 seconds

A Basic Study on the Differential Diagnostic System of Laryngeal Diseases using Hierarchical Neural Networks (다단계 신경회로망을 이용한 후두질환 감별진단 시스템의 개발)

  • 전계록;김기련;권순복;예수영;이승진;왕수건
    • Journal of Biomedical Engineering Research
    • /
    • v.23 no.3
    • /
    • pp.197-205
    • /
    • 2002
  • The objectives of this Paper is to implement a diagnostic classifier of differential laryngeal diseases from acoustic signals acquired in a noisy room. For this Purpose, the voice signals of the vowel /a/ were collected from Patients in a soundproof chamber and got mixed with noise. Then, the acoustic Parameters were analyzed, and hierarchical neural networks were applied to the data classification. The classifier had a structure of five-step hierarchical neural networks. The first neural network classified the group into normal and benign or malign laryngeal disease cases. The second network classified the group into normal or benign laryngeal disease cases The following network distinguished polyp. nodule. Palsy from the benign laryngeal cases. Glottic cancer cases were discriminated into T1, T2. T3, T4 by the fourth and fifth networks All the neural networks were based on multilayer perceptron model which classified non-linear Patterns effectively and learned by an error back-propagation algorithm. We chose some acoustic Parameters for classification by investigating the distribution of laryngeal diseases and Pilot classification results of those Parameters derived from MDVP. The classifier was tested by using the chosen parameters to find the optimum ones. Then the networks were improved by including such Pre-Processing steps as linear and z-score transformation. Results showed that 90% of T1, 100% of T2-4 were correctly distinguished. On the other hand. 88.23% of vocal Polyps, 100% of normal cases. vocal nodules. and vocal cord Paralysis were classified from the data collected in a noisy room.

Optimal Value Detection of Irregular RR Interval for Atrial Fibrillation Classification based on Linear Analysis (선형분석 기반의 심방세동 분류를 위한 불규칙 RR 간격의 최적값 검출)

  • Cho, Ik-Sung;Jeong, Jong-Hyeog;Cho, Young Chang;Kwon, Hyeog-Soong
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.18 no.10
    • /
    • pp.2551-2561
    • /
    • 2014
  • Several algorithms have been developed to detect AFIB(Atrial Fibrillation) which either rely on the linear and frequency analysis. But they are more complex than time time domain algorithm and difficult to get the consistent rule of irregular RR interval rhythm. In this study, we propose algorithm for optimal value detection of irregular RR interval for AFIB classification based on linear analysis. For this purpose, we detected R wave, RR interval, from noise-free ECG signal through the preprocessing process and subtractive operation method. Also, we set scope for segment length and detected optimal value and then classified AFIB in realtime through liniar analysis such as absolute deviation and absolute difference. The performance of proposed algorithm for AFIB classification is evaluated by using MIT-BIH arrhythmia and AFIB database. The optimal value indicate ${\alpha}=0.75$, ${\beta}=1.4$, ${\gamma}=300ms$ in AFIB classification.

Wavelet-based Statistical Noise Detection and Emotion Classification Method for Improving Multimodal Emotion Recognition (멀티모달 감정인식률 향상을 위한 웨이블릿 기반의 통계적 잡음 검출 및 감정분류 방법 연구)

  • Yoon, Jun-Han;Kim, Jin-Heon
    • Journal of IKEEE
    • /
    • v.22 no.4
    • /
    • pp.1140-1146
    • /
    • 2018
  • Recently, a methodology for analyzing complex bio-signals using a deep learning model has emerged among studies that recognize human emotions. At this time, the accuracy of emotion classification may be changed depending on the evaluation method and reliability depending on the kind of data to be learned. In the case of biological signals, the reliability of data is determined according to the noise ratio, so that the noise detection method is as important as that. Also, according to the methodology for defining emotions, appropriate emotional evaluation methods will be needed. In this paper, we propose a wavelet -based noise threshold setting algorithm for verifying the reliability of data for multimodal bio-signal data labeled Valence and Arousal and a method for improving the emotion recognition rate by weighting the evaluation data. After extracting the wavelet component of the signal using the wavelet transform, the distortion and kurtosis of the component are obtained, the noise is detected at the threshold calculated by the hampel identifier, and the training data is selected considering the noise ratio of the original signal. In addition, weighting is applied to the overall evaluation of the emotion recognition rate using the euclidean distance from the median value of the Valence-Arousal plane when classifying emotional data. To verify the proposed algorithm, we use ASCERTAIN data set to observe the degree of emotion recognition rate improvement.

Development of Evaluation Metrics that Consider Data Imbalance between Classes in Facies Classification (지도학습 기반 암상 분류 시 클래스 간 자료 불균형을 고려한 평가지표 개발)

  • Kim, Dowan;Choi, Junhwan;Byun, Joongmoo
    • Geophysics and Geophysical Exploration
    • /
    • v.23 no.3
    • /
    • pp.131-140
    • /
    • 2020
  • In training a classification model using machine learning, the acquisition of training data is a very important stage, because the amount and quality of the training data greatly influence the model performance. However, when the cost of obtaining data is so high that it is difficult to build ideal training data, the number of samples for each class may be acquired very differently, and a serious data-imbalance problem can occur. If such a problem occurs in the training data, all classes are not trained equally, and classes containing relatively few data will have significantly lower recall values. Additionally, the reliability of evaluation indices such as accuracy and precision will be reduced. Therefore, this study sought to overcome the problem of data imbalance in two stages. First, we introduced weighted accuracy and weighted precision as new evaluation indices that can take into account a data-imbalance ratio by modifying conventional measures of accuracy and precision. Next, oversampling was performed to balance weighted precision and recall among classes. We verified the algorithm by applying it to the problem of facies classification. As a result, the imbalance between majority and minority classes was greatly mitigated, and the boundaries between classes could be more clearly identified.

인공신경망을 이용한 부실기업예측모형 개발에 관한 연구

  • Jung, Yoon;Hwang, Seok-Hae
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 1999.03a
    • /
    • pp.415-421
    • /
    • 1999
  • Altman의 연구(1965, 1977)나 Beaver의 연구(1986)와 같은 전통적 예측모형은 분석자의 판단에 따른 예측도가 높은 재무비율을 선정하여 다변량판별분석(MDA:multiple discriminant analysis), 로지스틱회귀분석 등과 같은 통계기법을 주로 이용해 왔으나 1980년 후반부터 인공지능 기법인 귀납적 학습방법, 인공신경망모형, 유전모형 등이 부실기업예측에 응용되기 시작했다. 최근 연구에서는 인공신경망을 활용한 변수 및 모형개발에 관한 보고가 있다. 그러나 지금까지의 연구가 주로 기업의 재무적 비율지표를 고려한 모형에 치중되었으며 정성적 자료인 비재무지표에 대한 검증과 선정이 자의적으로 이루어져온 경향이었다. 또한 너무 많은 입력변수를 사용할 경우 다중공선성 문제를 유발시킬 위험을 내포하고 있다. 본 연구에서는 부실기업예측모형을 수립하기 위하여 정량적 요인인 재무적 지표변수와 정성적 요인인 비재무적 지표변수를 모두 고려하였다. 재무적 지표변수는 상관분석 및 요인분석들을 통하여 유의한 변수들을 도출하였으며 비재무적 지표변수는 조직생태학내에서의 조직군내 조직사멸과 관련된 생태적 과정에 대한 요인들 중 조직군 내적요인으로 조직의 연령, 조직의 규모, 조직의 산업밀도를 도출하여 4개의 실험집단으로 분류하여 비재무적 지표변수를 보완하였다. 인공신경망은 다층퍼셉트론(multi-layer perceptrons)과 역방향 학습(back-propagation)알고리듬으로 입력변수와 출력변수, 그리고 하나의 은닉층을 가지는 3층 퍼셉트론(three layer perceptron)을 사용하였으며 은닉층의 노드(node)수는 3개를 사용하였다. 입력변수로 안정성, 활동성, 수익성, 성장성을 나타내는 재무적 지표변수와 조직규모, 조직연령, 그 조직이 속한 산업의 밀도를 비재무적 지표변수로 산정하여 로지스틱회귀 분석과 인공신경망 기법으로 검증하였다. 로지스틱회귀분석 결과에서는 재무적 지표변수 모형의 전체적 예측적중률이 87.50%인 반면에 재무/비재무적 지표모형은 90.18%로서 비재무적 지표변수 사용에 대한 개선의 효과가 나타났다. 표본기업들을 훈련과 시험용으로 구분하여 분석한 결과는 전체적으로 재무/비재무적 지표를 고려한 인공신경망기법의 예측적중률이 높은 것으로 나타났다. 즉, 로지스틱회귀 분석의 재무적 지표모형은 훈련, 시험용이 84.45%, 85.10%인 반면, 재무/비재무적 지표모형은 84.45%, 85.08%로서 거의 동일한 예측적중률을 가졌으나 인공신경망기법 분석에서는 재무적 지표모형이 92.23%, 85.10%인 반면, 재무/비재무적 지표모형에서는 91.12%, 88.06%로서 향상된 예측적중률을 나타내었다.

  • PDF

The Availability of Amplitude, Asymmetry and Mean Frequency of Alpha Intrinsic Rhythm in Old Age as Brain Health Indicators (노년기 알파 고유리듬 진폭, 비대칭 및 평균 주파수의 뇌건강 지표로써 활용 가능성 연구)

  • Shim, Jun-Young
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.21 no.2
    • /
    • pp.124-132
    • /
    • 2020
  • This study examines the clinical availability of alpha amplitude, asymmetry and mean frequency in old age as EEG indexes reflecting brain health condition. The EEGs of prefrontal lobes in eye closure state were measured for 4 minutes with 72 male and female elderly people aged 73. Subjects were divided into higher and lower groups based on average values of alpha amplitude, asymmetry and mean frequency. The results of correlations and t-test among EEG indexes were as follows. First, the higher Alpha altitude was, the higher physical and mental stress resistance and left-to-right brain communication were, and the lower mean Alpha mean frequency location was. The higher Alpha asymmetry was, the lower left-to-right communication level was. Second, as Alpha power of right brain was higher than that of left brain, Alpha amplitude and mental stress resistance and left-to-right brain communication level were higher. Third, as Alpha mean frequency location was higher, Alpha amplitude and mental anti-stress level were lowered and arousal level was enhanced. These high correlations and complementary meaning among quantitative EEG indicators demonstrated the possibility of biomarkers reflecting brain health state in old age.

On-Line Determination Steady State in Simulation Output (시뮬레이션 출력의 안정상태 온라인 결정에 관한 연구)

  • 이영해;정창식;경규형
    • Proceedings of the Korea Society for Simulation Conference
    • /
    • 1996.05a
    • /
    • pp.1-3
    • /
    • 1996
  • 시뮬레이션 기법을 이용한 시스템의 분석에 있어서 실험의 자동화는 현재 많은 연구와 개발이 진행 중인 분야이다. 컴퓨터와 정보통신 시스템에 대한 시뮬레이션의 예를 들어 보면, 수많은 모델을 대한 시뮬레이션을 수행할 경우 자동화된 실험의 제어가 요구되고 있다. 시뮬레이션 수행회수, 수행길이, 데이터 수집방법 등과 관련하여 시뮬레이션 실험방법이 자동화가 되지 않으면, 시뮬레이션 실험에 필요한 시간과 인적 자원이 상당히 커지게 되며 출력데이터에 대한 분석에 있어서도 어려움이 따르게 된다. 시뮬레이션 실험방법을 자동화하면서 효율적인 시뮬레이션 출력분석을 위해서는 시뮬레이션을 수행하는 경우에 항상 발생하는 초기편의 (initial bias)를 제거하는 문제가 선결되어야 한다. 시뮬레이션 출력분석에 사용되는 데이터들이 초기편의를 반영하지 않는 안정상태에서 수집된 것이어야만 실제 시스템에 대한 올바른 해석이 가능하다. 실제로 시뮬레이션 출력분석과 관련하여 가장 중요하면서도 어려운 문제는 시뮬레이션의 출력데이터가 이루는 추계적 과정 (stochastic process)의 안정상태 평균과 이 평균에 대한 신뢰구간(confidence interval: c. i.)을 구하는 것이다. 한 신뢰구간에 포함되어 있는 정보는 의사결정자에게 얼마나 정확하게 평균을 추정할 구 있는지 알려 준다. 그러나, 신뢰구간을 구성하는 일은 하나의 시뮬레이션으로부터 얻어진 출력데이터가 일반적으로 비정체상태(nonstationary)이고 자동상관(autocorrelated)되어 있기 때문에, 전통적인 통계적인 기법을 직접적으로 이용할 수 없다. 이러한 문제를 해결하기 위해 시뮬레이션 출력데이터 분석기법이 사용된다.본 논문에서는 초기편의를 제거하기 위해서 필요한 출력데이터의 제거시점을 찾는 새로운 기법으로, 유클리드 거리(Euclidean distance: ED)를 이용한 방법과 현재 패턴 분류(pattern classification) 문제에 널리 사용 중인 역전파 신경망(backpropagation neural networks: BNN) 알고리듬을 이용하는 방법을 제시한다. 이 기법들은 대다수의 기존의 기법과는 달리 시험수행(pilot run)이 필요 없으며, 시뮬레이션의 단일수행(single run) 중에 제거시점을 결정할 수 있다. 제거시점과 관련된 기존 연구는 다음과 같다. 콘웨이방법은 현재의 데이터가 이후 데이터의 최대값이나 최소값이 아니면 이 데이터를 제거시점으로 결정하는데, 알고기듬 구조상 온라인으로 제거시점 결정이 불가능하다. 콘웨이방법이 알고리듬의 성격상 온라인이 불가능한 반면, 수정콘웨이방법 (Modified Conway Rule: MCR)은 현재의 데이터가 이전 데이터와 비교했을 때 최대값이나 최소값이 아닌 경우 현재의 데이터를 제거시점으로 결정하기 때문에 온라인이 가능하다. 평균교차방법(Crossings-of-the-Mean Rule: CMR)은 누적평균을 이용하면서 이 평균을 중심으로 관측치가 위에서 아래로, 또는 아래서 위로 교차하는 회수로 결정한다. 이 기법을 사용하려면 교차회수를 결정해야 하는데, 일반적으로 결정된 교차회수가 시스템에 상관없이 일반적으로 적용가능하지 않다는 문제점이 있다. 누적평균방법(Cumulative-Mean Rule: CMR2)은 여러 번의 시험수행을 통해서 얻어진 출력데이터에 대한 총누적평균(grand cumulative mean)을 그래프로 그린 다음, 안정상태인 점을 육안으로 결정한다. 이 방법은 여러 번의 시뮬레이션을 수행에서 얻어진 데이터들의 평균들에 대한 누적평균을 사용하기 매문에 온라인 제거시점 결정이 불가능하며, 작업자가 그래프를 보고 임의로 결정해야 하는 단점이 있다. Welch방법(Welch's Method: WM)은 브라운 브리지(Brownian bridge) 통계량()을 사용하는데, n이 무한에 가까워질 때, 이 브라운 브리지 분포(Brownian bridge distribution)에 수렴하는 성질을 이용한다. 시뮬레이션 출력데이터를 가지고 배치를 구성한 후 하나의 배치를 표본으로 사용한다. 이 기법은 알고리듬이 복잡하고, 값을 추정해야 하는 단점이 있다. Law-Kelton방법(Law-Kelton's Method: LKM)은 회귀 (regression)이론에 기초하는데, 시뮬레이션이 종료된 후 누적평균데이터에 대해서 회귀직선을 적합(fitting)시킨다. 회귀직선의 기울기가 0이라는 귀무가설이 채택되면 그 시점을 제거시점으로 결정한다. 일단 시뮬레이션이 종료된 다음, 데이터가 모아진 순서의 반대 순서로 데이터를 이용하기 때문에 온라인이 불가능하다. Welch절차(Welch's Procedure: WP)는 5회이상의 시뮬레이션수행을 통해 수집한 데이터의 이동평균을 이용해서 시각적으로 제거시점을 결정해야 하며, 반복제거방법을 사용해야 하기 때문에 온라인 제거시점의 결정이 불가능하다. 또한, 한번에 이동할 데이터의 크기(window size)를 결정해야 한다. 지금까지 알아 본 것처럼, 기존의 방법들은 시뮬레이션의 단일 수행 중의 온라인 제거시점 결정의 관점에서는 미약한 면이 있다. 또한, 현재의 시뮬레이션 상용소프트웨어는 작업자로 하여금 제거시점을 임의로 결정하도록 하기 때문에, 실험중인 시스템에 대해서 정확하고도 정량적으로 제거시점을 결정할 수 없게 되어 있다. 사용자가 임의로 제거시점을 결정하게 되면, 초기편의 문제를 효과적으로 해결하기 어려울 뿐만 아니라, 필요 이상으로 너무 많은 양을 제거하거나 초기편의를 해결하지 못할 만큼 너무 적은 양을 제거할 가능성이 커지게 된다. 또한, 기존의 방법들의 대부분은 제거시점을 찾기 위해서 시험수행이 필요하다. 즉, 안정상태 시점만을 찾기 위한 시뮬레이션 수행이 필요하며, 이렇게 사용된 시뮬레이션은 출력분석에 사용되지 않기 때문에 시간적인 손실이 크게 된다.

  • PDF

Skew Correction of Business Card Images for PDA Application (PDA 응용을 위한 명함 영상의 회전 보정)

  • 박준효;장익훈;김남철
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.28 no.12C
    • /
    • pp.1225-1238
    • /
    • 2003
  • We present an efficient algorithm for skew correction of business card images obtained by a PDA (personal digital assistant) camera. The proposed method is composed of four parts: block adaptive binarization (BAB), stripe generation, skew angle calculation, and image rotation. In the BAB, an input image is binarized block by block so as to lessen the effect of irregular illumination and shadow over the input image. In the stripe generation, character string clusters are generated merging adjacent characters and their strings, and then only clusters useful for skew angle calculation are output as stripes. In the skew angle calculation, the direction angles of the stripes are calculated using their central moments and then the skew angle of the input image is determined averaging the direction angles. In the image rotation, the input image is rotated by the skew angle. Experimental results shows that the proposed method yields skew correction rates of about 93% for test images of several types of business cards acquired by a PDA under various surrounding conditions.

Analysis on the Secondary Pre-Physical Education Teacher's Recognition for the Learning Athletics Using the Q Methodology (Q방법론을 활용한 중등예비체육교사의 육상운동에 대한 인식 연구)

  • Yu, Young-Seol
    • Journal of the Korea Convergence Society
    • /
    • v.11 no.4
    • /
    • pp.311-321
    • /
    • 2020
  • The purpose of this study was to analyze the recognition of secondary pre-physical education teachers' recognition for the learning athletics using Q methodology. P-sample was composed of 28 pre-secondary P·E teachers. The selected Q samples were arranged in the normal distribution form. The collected data were analyzed by factor analysis through varimax rotation using QUANL PC program. This study found four types of recognition on learning athletics. Type I is defined 'the type of recognition for education value.' Type II is defined 'the type of emphasizing assistant activities.' Type III is defined 'the type of an appeal difficulty to learn athletics skill.' Type IV is defined 'the type of emphasizing the basic movement value.' Based of the results of this study, the implications and direction to future research on athletics activities are suggested.

Rule Generation and Approximate Inference Algorithms for Efficient Information Retrieval within a Fuzzy Knowledge Base (퍼지지식베이스에서의 효율적인 정보검색을 위한 규칙생성 및 근사추론 알고리듬 설계)

  • Kim Hyung-Soo
    • Journal of Digital Contents Society
    • /
    • v.2 no.2
    • /
    • pp.103-115
    • /
    • 2001
  • This paper proposes the two algorithms which generate a minimal decision rule and approximate inference operation, adapted the rough set and the factor space theory in fuzzy knowledge base. The generation of the minimal decision rule is executed by the data classification technique and reduct applying the correlation analysis and the Bayesian theorem related attribute factors. To retrieve the specific object, this paper proposes the approximate inference method defining the membership function and the combination operation of t-norm in the minimal knowledge base composed of decision rule. We compare the suggested algorithms with the other retrieval theories such as possibility theory, factor space theory, Max-Min, Max-product and Max-average composition operations through the simulation generating the object numbers and the attribute values randomly as the memory size grows. With the result of the comparison, we prove that the suggested algorithm technique is faster than the previous ones to retrieve the object in access time.

  • PDF