• Title/Summary/Keyword: 통계적분석기법

Search Result 918, Processing Time 0.028 seconds

An Analysis of the Efficiency of Item-based Agricultural Cooperative Using the DEA Model (확률적 DEA모형에 의한 품목농협의 효율성 분석)

  • Lee, Sang-Ho
    • Journal of agriculture & life science
    • /
    • v.45 no.6
    • /
    • pp.279-289
    • /
    • 2011
  • The purpose of this study is to estimate efficiency of item-based agricultural cooperative by using Data Envelopment Analysis. A proposed method employs a bootstrapping approach to generating efficiency estimates through Monte Carlo simulation resampling process. The technical efficiency, pure technical efficiency, and scale efficiency measure of item-based agricultural cooperative is 0.80, 0.87, 0.93 respectively. However the bias-corrected estimates are less than those of DEA. We know that the DEA estimator is an upward biased estimator. In technical efficiency, average lower and upper confidence bounds of 0.726 and 0.8747. According to these results, the DEA bootstrapping model used here provides bias-corrected and confidence intervals for the point estimates, it is more preferable.

Vacant Technology Forecasting using Ensemble Model (앙상블모형을 이용한 공백기술예측)

  • Jun, Sung-Hae
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.21 no.3
    • /
    • pp.341-346
    • /
    • 2011
  • A vacant technology forecasting is an important issue in management of technology. The forecast of vacant technology leads to the growth of nation and company. So, we need the results of technology developments until now to predict the vacant technology. Patent is an objective thing of the results in research and development of technology. We study a predictive method for forecasting the vacant technology quantitatively using patent data in this paper. We propose an ensemble model that is to vote some clustering criteria because we can't guarantee a model is optimal. Therefore, an objective and accurate forecasting model of vacant technology is researched in our paper. This model combines statistical analysis methods with machine learning algorithms. To verify our performance evaluation objectively, we make experiments using patent documents of diverse technology fields.

Single Ping Clutter Reduction Algorithm Using Statistical Features of Peak Signal to Improve Detection in Active Sonar System (능동소나 탐지 성능 향상을 위한 피크 신호의 통계적 특징 기반 단일 핑 클러터 제거 기법)

  • Seo, Iksu;Kim, Seongweon
    • The Journal of the Acoustical Society of Korea
    • /
    • v.34 no.1
    • /
    • pp.75-81
    • /
    • 2015
  • In active sonar system, clutters degrade performance of target detection/tracking and overwhelm sonar operators in ASW (Antisubmarine Warfare). Conventional clutter reduction algorithms using consistency of local peaks are studied in multi-ping data and tracking filter research for active sonar was conducted. However these algorithms cannot classify target and clutters in single ping data. This paper suggests a single ping clutter reduction approach to reduce clutters in mid-frequency active sonar system using echo shape features. The algorithm performance test is conducted using real sea-trial data in heavy clutter density environment. It is confirmed that the number of clutters was reduced by about 80 % over the conventional algorithm while retaining the detection of target.

6 Sigma Application for the Improvement of OTR-8 Process Capability (OTR-8 공정능력 향상을 위한 6시그마 기법 활용)

  • Hwang, In-Keuk;Choi, Myun-Jung;Kim, Jin-Ho
    • Proceedings of the KAIS Fall Conference
    • /
    • 2007.11a
    • /
    • pp.414-416
    • /
    • 2007
  • 6 시그마 기법은 Define 단계부터 현상에 대한 수치화를 강조하고 있어, Data의 중요성을 어떤 다른 개선활동 보다도 강조하고 있다. 그러나 현장에서 개선활동 수행시에 가장 큰 문제점은 결과지표인 Y에 대한 측정을 통한 수치화는 가능하지만 -현실적으로도 관리를 하고 있고- 제어인자인 Xs인자에 대한 수치화는 상당한 어려움을 겪고 있다. 그 이유는 가장 큰 경우가 조건변경에 의한 실험을 통해 Data를 수집하려면 상당한 불량의 발생을 감수해야 하고 그로 인한 피해를 중소기업 입장에서 감수하고 실험을 감행하는것이 쉽지 않을 것이다. 따라서 실제 현장 개선에서는 불량을 최소한 줄이기 위해서 제어인자인 Xs인자의 변동을 최소화 하다 보니 X인자의 변화에 따른 Y인자의 변동을 알 수 없어 실제로는 유의한 영향을 줌에도 불구하고 통계적인 결론에만 집착하다 보면 잘못된 판정으로 인해 실제 개선이 되지 않는 경우가 허다하다. 이 논문에서는 6 시그마 활동시 문제가 되는 통계적 기법 적용시 현실과 Data 분석의 결과가 일치하지 않을 때 현실적 판단방법을 적용하여 실질적 개선을 하는 방법과 Xs인자의 작은 변화를 감지할 수 있는 통계적 기법의 적용을 통하여 실제 개선을 할 수 있는 사례를 제시하고자 한다.

  • PDF

A fast luminance intra $4{\times}4$ prediction mode decision method by statistical analysis (통계적 분석을 통한 고속 휘도 화면내 $4{\times}4$ 예측 모드 결정 방법)

  • Noh, Dae-Young;Kim, Ji-Eun;Chung, Kwang-Sue;Oh, Seoung-Jun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.475-478
    • /
    • 2011
  • 율-왜곡 최적화 기법을 통한 화면내 예측 모드 결정 방법은 부호화 효율이 높지만 복잡도가 크다. 본 논문에서는 H.264/AVC의 율-왜곡 값의 특성을 분석하여 율-왜곡 최적화 기법에 사용되는 예측 모드의 후보를 줄임으로써 보다 빠른 휘도 화면내 $4{\times}4$ 예측 모드 결정 방법을 제안한다. 제안된 방법은 균일한 차분 블록값을 가지는 예측 모드와 균일하지 않은 차분 블록값을 가지는 예측 모드의 통계적 분석을 통해 부호화 속도를 향상시킨다. H.264/AVC의 참조 소프트웨어 JM 14.2와 비교하여 0.04[dB]라는 무시할 수 있는 PSNR의 손실을 가지면서도 0.3[%]의 비트율 절약과 19.6[%]의 부호화 속도 향상을 가져왔다.

  • PDF

Weight Adjustment Methods Based on Statistical Information for Fuzzy Weighted Mean Classifiers (퍼지 가중치 평균 분류기를 위한 통계적 정보 기반의 가중치 설정 방안)

  • Shin, Sang-Ho;Cho, Jae-Hyun;Woo, Young-Woon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.25-30
    • /
    • 2009
  • 패턴 인식에서 분류기 모형으로 많이 사용되는 퍼지 가중치 평균 분류기는 가중치를 적절히 설정함으로써 뛰어난 분류 성능을 얻을 수 있다는 장점이 있다. 그러나 일반적으로 가중치는 인식 문제 분야의 특성이나 해당 전문가의 지식이나 주관적 경험을 기반으로 설정되므로 설정된 가중치의 일관성과 객관성을 보장하기가 어려운 문제점을 갖고 있다. 따라서 이 논문에서는 퍼지 가중치 평균 분류기의 가중치를 설정하기 위한 객관적 기준을 제시하기 위하여 특징값들 간의 통계적 정보를 이용한 가중치 설정 기법들을 제안하였다. 제안한 기법들을 이용하여 UCI machine learning repository 사이트에서 제공되는 표준 데이터들 중의 하나인 Iris 데이터 세트를 이용하여 실험하고 그 결과를 비교, 분석하였다.

  • PDF

An experiment in automatic indexing with korean texts : a comparison of syntactico-statistical and manual methods (구문 . 통계적 기법을 이용한 한국어 자동색인에 관한 연구)

  • 서은경
    • Journal of the Korean Society for information Management
    • /
    • v.10 no.1
    • /
    • pp.97-124
    • /
    • 1993
  • This study was undertaken in order to develop practical automatic indexing techniques suitable for Korean natural language texts. It has taken a modest step toward this goal by developing an automatic syntactico-statistical indexing method and evaluating the method by comparing the resutls with manual indexing. For this experimental study, the Korean text database was constructed manually based on 300 abstracts covering business subject. The experimental results showed that the performance of the automatic syntactico-statistical indexing system was comparable to that of other studies which have compared automatic indexing with manual indexing.

  • PDF

Performance Improvement in Wavelet Transform Codec Using Statistical Characteristics of Uniform Quantizer (균일 양자화기의 통계적 특성을 이용한 웨이브릿 부호화기의 성능개선)

  • 김용규
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.10B
    • /
    • pp.1375-1381
    • /
    • 2001
  • 영상 부호화 기법에 적용하여 향상된 성능을 나타내는 균일 양자화기를 제안하였다. 또한 두 가지 형태의 서로 다른 균일 양자화기에 대하여 비트율-왜곡(rate-distortion) 특성을 분석하였다. 분석결과 입력(input source)의 평균값을 기준으로, 구간값(decision level)을 이동시키는 제안한 양자화 기법이 다른 양자화기 보다 향상된 비트율-왜곡 특성을 보였다. 아울러 제안한 양자화기를 웨이브릿 변환 부호화기에 적용한 결과, 여러 가지 영상에 대하여 기존의 양자화 기법보다 우수한 결과를 얻었다.

  • PDF

An Improvement of Recognition Performance Based on Nonlinear Equalization and Statistical Correlation (비선형 평활화와 통계적 상관성에 기반을 둔 인식성능 개선)

  • Shin, Hyun-Soo;Cho, Yong-Hyun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.22 no.5
    • /
    • pp.555-562
    • /
    • 2012
  • This paper presents a hybrid method for improving the recognition performance, which is based on the nonlinear histogram equalization, features extraction, and statistical correlation of images. The nonlinear histogram equalization based on a logistic function is applied to adaptively improve the quality by adjusting the brightness of the image according to its intensity level frequency. The statistical correlation that is measured by the normalized cross-correlation(NCC) coefficient, is applied to rapidly and accurately express the similarity between the images. The local features based on independent component analysis(ICA) that is used to calculate the NCC, is also applied to statistically measure the correct similarity in each images. The proposed method has been applied to the problem for recognizing the 30-face images of 40*50 pixels. The experimental results show that the proposed method has a superior recognition performances to the method without performing the preprocessing, or the methods of conventional and adaptively modified histogram equalization, respectively.

Statistical Analysis of ESDD on the Distance from the Coast (해안거리에 따른 ESDD의 통계적 분석)

  • Kim, Chan-Young;Kim, Dong-Myung;Chang, Joon-Soo
    • Proceedings of the KIEE Conference
    • /
    • 2007.07a
    • /
    • pp.1474-1475
    • /
    • 2007
  • 해안거리에 따른 등가염분부착밀도(Equivalent Salt Deposit Density)의 수동오손측정은 동해, 서해, 남해의 해안가 및 제주도, 진도, 거제도의 도서지역에 설치되어 있는 112개소에서 매월 1개월 누적오손을 측정하였다. 이와 같이 수동으로 측정된 ESDD는 전력연구원에서 수행한 "전력설비의 염진해 대책에 관한연구(1988)" 및 "염진해 오손정도 및 기준정립에 관한 연구(2002)"에서 분석기법으로 활용한 통계분석기법을 사용하여 분석하였다.

  • PDF