• 제목/요약/키워드: violation of normality

검색결과 5건 처리시간 0.021초

A comparison of tests for homoscedasticity using simulation and empirical data

  • Anastasios Katsileros;Nikolaos Antonetsis;Paschalis Mouzaidis;Eleni Tani;Penelope J. Bebeli;Alex Karagrigoriou
    • Communications for Statistical Applications and Methods
    • /
    • 제31권1호
    • /
    • pp.1-35
    • /
    • 2024
  • The assumption of homoscedasticity is one of the most crucial assumptions for many parametric tests used in the biological sciences. The aim of this paper is to compare the empirical probability of type I error and the power of ten parametric and two non-parametric tests for homoscedasticity with simulations under different types of distributions, number of groups, number of samples per group, variance ratio and significance levels, as well as through empirical data from an agricultural experiment. According to the findings of the simulation study, when there is no violation of the assumption of normality and the groups have equal variances and equal number of samples, the Bhandary-Dai, Cochran's C, Hartley's Fmax, Levene (trimmed mean) and Bartlett tests are considered robust. The Levene (absolute and square deviations) tests show a high probability of type I error in a small number of samples, which increases as the number of groups rises. When data groups display a nonnormal distribution, researchers should utilize the Levene (trimmed mean), O'Brien and Brown-Forsythe tests. On the other hand, if the assumption of normality is not violated but diagnostic plots indicate unequal variances between groups, researchers are advised to use the Bartlett, Z-variance, Bhandary-Dai and Levene (trimmed mean) tests. Assessing the tests being considered, the test that stands out as the most well-rounded choice is the Levene's test (trimmed mean), which provides satisfactory type I error control and relatively high power. According to the findings of the study and for the scenarios considered, the two non-parametric tests are not recommended. In conclusion, it is suggested to initially check for normality and consider the number of samples per group before choosing the most appropriate test for homoscedasticity.

A Study on Split Variable Selection Using Transformation of Variables in Decision Trees

  • Chung, Sung-S.;Lee, Ki-H.;Lee, Seung-S.
    • Journal of the Korean Data and Information Science Society
    • /
    • 제16권2호
    • /
    • pp.195-205
    • /
    • 2005
  • In decision tree analysis, C4.5 and CART algorithm have some problems of computational complexity and bias on variable selection. But QUEST algorithm solves these problems by dividing the step of variable selection and split point selection. When input variables are continuous, QUEST algorithm uses ANOVA F-test under the assumption of normality and homogeneity of variances. In this paper, we investigate the influence of violation of normality assumption and effect of the transformation of variables in the QUEST algorithm. In the simulation study, we obtained the empirical powers of variable selection and the empirical bias of variable selection after transformation of variables having various type of underlying distributions.

  • PDF

Robust Bayesian analysis for autoregressive models

  • Ryu, Hyunnam;Kim, Dal Ho
    • Journal of the Korean Data and Information Science Society
    • /
    • 제26권2호
    • /
    • pp.487-493
    • /
    • 2015
  • Time series data sometimes show violation of normal assumptions. For cases where the assumption of normality is untenable, more exible models can be adopted to accommodate heavy tails. The exponential power distribution (EPD) is considered as possible candidate for errors of time series model that may show violation of normal assumption. Besides, the use of exible models for errors like EPD might be able to conduct the robust analysis. In this paper, we especially consider EPD as the exible distribution for errors of autoregressive models. Also, we represent this distribution as scale mixture of uniform and this form enables efficient Bayesian estimation via Markov chain Monte Carlo (MCMC) methods.

농촌유역특성과 하천수질과의 관계 (Relationship between rural watershed characteristics and stream water quality)

  • 홍성구;권순국
    • 한국농공학회지
    • /
    • 제43권3호
    • /
    • pp.56-65
    • /
    • 2001
  • In interpreting stream water quality data, scientific or statistical mehtods should be employed. Classical parametric statistical methods may not be adopted in analyzing water quality data, due to the violation of normality. In this study, nonparametric statistical methods, such as Kruskal-Wallis test and Mann-Whitney test, were used in comparing water quality data from several monitoring stations. Water quality data used are those collected Bokha watershed, located in Ichon-city, Kyonggi province. Based on the test results, domestic sewage is the major pollution source. A couple of sub-watersheds with a large number of livestock do not show significant differences in water quality parameters. It should be noted that comparison of mean values of water quality parameters is difficult to relate water quality with watershed characteristics. The results also indicate that livestock farming does not significantly affect the water quality.

  • PDF

주식분할 미시분석과 정보효과 측정 (Micro-Study on Stock Splits and Measuring Information Content Using Intervention Method)

  • 김양렬
    • 재무관리연구
    • /
    • 제7권1호
    • /
    • pp.1-20
    • /
    • 1990
  • 시장 효율성 가설의 검증방법으로 가장 많이 이용되는 방법은, 시장이 새로 들어온 정보를 가격형성에 얼마나 빨리 또 어떻게 반영하는가를 검사하는 것이다. 이경우 시장이 개별 주식의 가격을 결정하는 가격모형이 사전에 가정되어야 하며, 이 때문에 효율성가설의 검증에서는 결국 시장모형과 효율성가설이 동시에 검증될 수 밖에 없다. 기존의 대부분 연구에서는 개별 주식의 수익율이 정규분포를 따른다는 가정으로 부터 유도된 시장모형(market model)이나 자산가격모형(capital asset pricing mel)이 가격결정모형으로 차용되었으며, 위험성 척도베타의 안정성과 가격모형이 설명하지 못한 잔차항의 정규성, 상호독립성의 가정하에 시장의 새로운 정보에 대한 반응을 살펴봄으로써 시장의 효율성을 평가하려고 하였다. 그러나 최근의 많은 연구는 베타가 안정적이지 못하며(nonstationary), 잔차항 또한 시계열적으로 자동상간(autocorrelation)되어 있다고 보고하고 있다. 이러한 점을 감안한 상태로 효율성 가설을 검증하기 위한 시도로, 본 연구에서는 시장모형을 기본으로 한 간섭모형(intervention model)을 사용하여 주식분할정보에 대한 시장의 반응을 일간수익을(daily returns)자료를 바탕으로 조사하였다. 본 연구에서도 베타의 불안정성, 잔차의 자동상관이 관찰되었으며, 특히 주석분할을 발표하는 싯점에서 베타는 눈에 띄게 증가하였다. 주식분할정보를 시장이 충분히 빨리 반영하지 못한다는 기존의 연구결과는 본 연구에서 사용된 방법으로도 바뀌지 않으나, 발표후 2주간의 초과수익은 전통적 방법으로 조사한 결과보다 43퍼센트 정도 감소하였다. Lakonishok과 Lev(1987)는 초과수익의 존재를 가격수정동기(price correction motive)로 설명하나, 가격수정동기 자체가 초과수익의 존재를 설명한다기 보다는 주식분할에 다른 위험수준(베타)의 변동이 초과수익의 원인이라 보는 것이 타당하다. 분할이 발표된 주식을 소유하고 있던 기존의 주주들의 입장에서 볼때 자신의 포트폴리오 위험이 자신의 의사와 달리 증가되었으므로 이에 상응한 보상을 원할 것이며, 이 보상이 우리가 관측한 초과수익이라는 설명이 가능하고, 이러한 설명은 주식분할이 발표된 후의 베타가전에 비하여 증가한다는 점으로 뒷받침된다. 본 연구에서 사용된 모형은 기존의 연구에서 반영하지 못한 베타의 불안정성, 잔차의 자동상관성 문제를 해소시켜줄 뿐 아니라, 시장이 접하는 각 종의 정보에 대하여 시장의 차별적 효율성을 조사하는 데에도 적용될 수 있다는 점에서 재미있다. 즉 본문의 모형에서 매개변수 델타(s)는 시장이 새로운 정보를 간격결정에 반영하는 속도를 측정하는 척도이고, 오베가(v)는 시장에 들어온 정보의 강도(strength)의 척도로 볼 수 있다.

  • PDF