Proceedings of the Korean Statistical Society Conference (한국통계학회:학술대회논문집)
The Korean Statistical Society
- 기타
Domain
- Mathematics > Models/Data analysis
2004.11a
-
We address the problem of parameter estimation in multivariate distributions under ignorable non-monotone missing data. The factoring likelihood method for monotone missing data, termed by Robin (1974), is extended to a more general case of non-monotone missing data. The proposed method is algebraically equivalent to the Newton-Raphson method for the observed likelihood, but avoids the burden of computing the first and the second partial derivatives of the observed likelihood Instead, the maximum likelihood estimates and their information matrices for each partition of the data set are computed separately and combined naturally using the generalized least squares method. A numerical example is also presented to illustrate the method.
-
현재 통계학파의 수가 급격히 감소하고 있으며 우수한 학생들의 유치가 매우 어려워지는 상황에서 본 연구에서는 통계학과의 발전방향에 대해 다양한 관점에서 연구해 보았다. 특히 치환부족 사태 이후 교직에 대한 선호도가 높아지고 또 7차 교육과정에서 통계 교육이 강화되는 시점에서 통계학에 대한 교직과정을 확대하는 방안 또한 알아보았다. 어느 하나 쉬운 것이 없지만 모두의 다양한 노력이 전제되어야만 더 나은 미래를 만들어 갈 수 있을 것이다.
-
21세기 지식 정보화 사회를 이끌어갈 학생들이 고등학교에서 배운 내용들을 실생활 속에 적용시킨 수 있도록 하기 위해 통계 교육의 목표를 '지식정보화 사회에 사는 시민으로서 통계를 근거로 생산된 각종 정보의 해독 이해 능력을 갖게 하고 다양한 정보로 지식을 생산할 수 있는 능력을 함양하는 것'으로 설정한 후 첫째, 현재의 초등학교로부터 고등학교까지의 교육과정 및 교과내용에 대해 살펴보았고, 둘째, 보다 효율적인 통계 교육을 위한 교과 재구성 방안을 제시하였고, 셋째, 학교 현장에서의 통계 교육의 실태 및 문제점에 대해 알아보고 더불어 개선방안에 대해서도 살펴보았다.
-
본 연구에서는 고등학교 확률통계교육의 바람직한 방향 제시를 위하여, 한국의 제7차 수학과 교육과정과 일본고등학교 학습지도요령의 수학과 구성과 성격을 비교, 연구하였다. 또한, 교육과정상의 확률통계교육의 구성과 성격 및 편제에 대하여 비교하였다. 양국의 고등학교 수학과 교육과정을 비교, 고찰한 결과, 한일 양국의 새 교육과정에 따른 교육위주의 교육과정의 구성과 내용 및 편제가 상당한 부분 비슷하거나 같았다 그러나, 지도목표 서술과 학제가 다르며, 실제 수학과 교과운영에는 차이가 많이 있다.
-
계속 반복하여 실시되는 통계조사에서 조사원은 오차를 발생시키는 주요 요인으로 간주되고 있다 조사원에 의한 오차를 측정하는 방법으로서 조사표 형태별로 조사원, 집락 및 가구 등 변수에 따라 할당하고 선계방법에 따른 추정 값에 대한 효과 및 효과의 분산을 산출하는 모델을 제시한다. 또한 실제 조사모델로부터 품질관리표본을 추출하여 이를 대상으로 리인터뷰를 실시한 결과를 조사원의 인구통계학적 특성별로 분석하고 불일치지수 등을 산출함으로써 오차를 분석하는 방법을 제시한다.
-
본 연구에서는 통계의 품질을 평가하기 위한 품질지수 문제를 다루었다. 최근 제조업 부분에서 널리 이용되고 있는 '6-시그마'기법의 적용 가능성을 살펴보았다. 그리고 1999년 네덜란드 통계청의 Booleman과 Brakel(1999)에 의해 제안된 방법을 소개하였고, 이 방법을 개선하기 위해 2차 손실함수에 의한 평가방법을 살펴보았다. 손실함수에 의한 품질평가는 품질이 목표치를 벗어날 때, 급격히 만족도(품질)가 떨어진다는 현실성을 제대로 반영하였고, 사용자가 차원에 따라 지수공식을 다르게 적용하지 않아도 되는 장점을 가지고 있다.
-
2002년 10월 유럽통계협회는 품질지수개발을 위해 협회소속국가들이 연합하여 특별연구팀을 발족시켰다. 이 팀의 주목적은 유럽통계협회에서 생산되는 자료의 품질을 측정하기 위해 대표성이 있으며, 계산하기 쉽고, 이해하기 쉬운 지수를 개발하는 것이었다. 유럽 통계협회는 연구팀에서 개발한 지수를 이용하여 내부품질보고서를 작성하도록 결정하였다. 개발된 풀질지수들은 유럽 통계협회 소속 국가에 의해 생산된 통계에 적용하기 적합해야하며 유럽전체를 위해 Eurostat 이 보유하고 있는 통계에도 적합해야한다. 그러므로 지수들은 각 국이 합의한 용어, 공식, 변수, 도메인, 분석의 정도를 고려하여 개발되도록 하였다. 이러한 지수는 정기적으로 생산되도록 규정하고 있으며 이 규정이 지켜지기 위해서는 동일한 변수, 공식 통이 적용되어야함은 물론이고 시계열의 유지를 위해 관련된 메타데이터가 제공되어야한다. 서로 다른 조사결과로부터 관련된 통계량의 측정과 개념들간의 차이를 확인하기 위해서 메타데이터는 반드시 필요하며 품질보고서가 있는 경우 많은 도움이 릴 것이다. 본 연구에서는 동계생산자의 관점에서 본 각각의 품질 요소에 따라서 생산된 다양한 통계의 풀질을 평가하기 위해서 개발된 일련의 표준화된 품질지수를 제시할 것이다. 각 지수들의 정의와 가장 대표적인 지수산출을 제안하고 지수산출을 위해 필요한 메타데이터를 선명한 것이다.
-
본 연구에서는 표본 농가의 교체나 무응답으로 인한 데이터의 손실을 최소화하기 위하여 핫덱방법을 적용할 때 필요한 무응답 대체군 형성 방안을 제안하였다. 농가경제조사의 무응답 현황과 특성을 살펴보고, 대체군 형성 방안들을 비교할 수 있는 측도를 제안하였다. 제안된 비교 측도를 이용해서 대체군 형성 방안들을 비교하였다.
-
하나의 가구에서 대표되는 사람을 뽑는 문제가 조사의 마지막 단계에서 종종 발생한다. 일반적으로 가구내에서 성별과 연령에 따라 최종 조사단위로 선정되는 표본은 대표성에 문제가 있기 때문에 이를 해결하기 위한 방법으로서 Kish-격자를 이용한 방법을 사용하게 된다. 본 논문에서는 한국의 가구형태에 따라 기존의 Kish-격자를 수정하여 대표성 있는 표본을 선택하는 문제를 다루었다.
-
대규모 표본조사와 관련해서 관심변수와 보조변수간의 약한 상관관계를 고려한 Amahia et at.(1989)의 대체추정방법을 RHC(Rao, Hartley and Cochran)추출방법에 적용해서 Rao추정량과 효율성을 비교하였다.
-
The aim of this article is to illustrate what soft computing is and how important it is.
-
Support vector machine (SVM) has been very successful in pattern recognition and function estimation problems for crisp data. This paper proposes a new method to evaluate interval linear and nonlinear regression models combining the possibility and necessity estimation formulation with the principle of SVM. For data sets with crisp inputs and interval outputs, the possibility and necessity models have been recently utilized, which are based on quadratic programming approach giving more diverse spread coefficients than a linear programming one. SVM also uses quadratic programming approach whose another advantage in interval regression analysis is to be able to integrate both the property of central tendency in least squares and the possibilistic property In fuzzy regression. However this is not a computationally expensive way. SVM allows us to perform interval nonlinear regression analysis by constructing an interval linear regression function in a high dimensional feature space. In particular, SVM is a very attractive approach to model nonlinear interval data. The proposed algorithm here is model-free method in the sense that we do not have to assume the underlying model function for interval nonlinear regression model with crisp inputs and interval output. Experimental results are then presented which indicate the performance of this algorithm.
-
종속변수와 독립변수 사이의 통계적인 관계를 설명하기 위해 사용되는 회귀모형을 분석하는 방법을 회귀분석이라 한다. 독립변수와 종속변수가 퍼지수인 퍼지회귀모형을 추정하기 위해 최소전대편차추정량을 제시하고. 예제를 이용하여 퍼지최소절대편차회귀모형과 퍼지최소자 승회귀모형의 효율성을 평가한다.
-
We use principal component analysis (PCA) to identify exons of a gene and further analyze their internal structures. The PCA is conducted on the short-time Fourier transform (STFT) based on the 64 codon sequences and the 4 nucleotide sequences. By comparing to independent component analysis (ICA), we can differentiate between the exon and intron regions, and how they are correlated in terms of the square magnitudes of STFTs. The experiment is done on the gene F56F11.4 in the chromosome III of C. elegans. For this data, the nucleotide based PCA identifies the exon and intron regions clearly. The codon based PCA reveals a weak internal structure in some exon regions, but not the others. The result of ICA shows that the nucleotides thymine (T) and guanine (G) have almost all the information of the exon and intron regions for this data. We hypothesize the existence of complex exon structures that deserve more detailed analysis.
-
이 논문에서는 시계열자료을 이산코사인변환을 이용하여 주파수 공간으로 변환시킨 후 이산코사인변환 계수를 이용하여 재표본을 추출하는 방법에 대해 알아본다.
-
Moments of skew t random vectors and their quadratic forms are derived. It is shown that the moments of the sample autocovariance function and of the sample variogram estimator do not depend on a skewness parameter.
-
인력계획업무를 체계적이고 과학적으로 수행하기 위해서는 다양한 계량적인 모형이 요구된다. 이 중에서 핵심적인 모형은 미래의 인력운영을 시뮬레이션 할 수 있는 인력운영예측모형, 인력구조, 인사제도, 인력흐름간의 수리적인 관계를 분석하는 인력구조 분석모형, 인력운영 목표를 달성하기 위한 진급계획 최적화 모형 등이다. 본 논문에서는 이러한 모형 개발 시 적용한 통계적 방법론을 설명하고 주요 통계적 이슈를 제기하였다
-
Decision Analysis(DA) using Value Focused Thinking(VFT) can be an excellent process to deal with hard decisions. The intent of this research is to provide better understanding of the United States Air Force(USAF) officer retention problem. This thesis effort involves building a VFT model to find out more effective alternatives in retaining pilots and non pilots. This model, in conjunction with the results of the post analysis, shows an example of the application of a VFT approach to the USAF officer retention problem.
-
스트레스 수준이 논을 것으로 예상되는 공군사관학교 수험생의 신체검사 결과로부터 신체건강 지표인 혈액 내 생화학적 요인들과 정신건강 지표인 다면 인성검사 점수를 추출하여 통계적 상관성 및 유의성을 비교 분석하였다 사관생도들 중
$10\%$ 의 표본을 추출하여 사관생도와 수험생 집단간의 특성 비교를 위한 비교집단으로 이용하였다. 수험생과 사관생도 집단 간의 특성 요인 비교는 Mann-whitney U 검정과 Kruskal-Wallis 검정을 이용하였다. 수험생 집단 내에서 혈중 요인 및 정신건강 지표인 MMPI 점수는 정상범주에 있었고 두 요인 간 상관성은 발견할 수 없었다. 그러나 사관생도와 수험생 집단 간의 특성 요인들에 대한 유의성 검정 결과, 특히 2학년생도들의 혈액 내 혈구 수 및 활동성 또는 적극성과 관련된 MMPI 하위척도에서 수험생 집단과 매운 유의한 차이를 보이는 특이한 현상을 발견할 수 있었고 이에 대한 해석을 언급하였다. -
분석용 정밀 워게임 시뮬레이션 모형에서는 '모형운영 결과와 실제(또는 실험) 결과를 비교' 하는 통상적인 타당성 척도의 적용이 불가능함에 따라 워게임모형 운영환경에 적합한 새로운 개념의 타당성 척도로서 VEA(Validity for Exploratory Analysis), VSA(Validity subject to Assumption) 등의 개념을 도입하고 이를 탐색적으로 점검하는 방안을 제시한다. 분석용 워게임모형 활용에 있어 또 하나의 걸림돌은 1)시나리오 및 상황의 가변성, 2)무기체계 및 장비 성능에 대한 불확실성, 3)묘사범위 제한 및 논리의 부정확성으로 인한 오류 등으로 엄청난 불확실성(uncertainty)을 기본적으로 내포함에 따라 구체적 의사결정을 위한 종합적 결론 도출이 어렵다는 점이다. 본 연구에서는 이를 메타모델(Meta model) 즉 워게임모형 입출력 자료의 관계를 묘사한 통계적 모형을 구축하고 이를 기반으로 다양한 불확실성 하에서 관심변수간의 관계를 종합적으로 도출하고자 하는 '관련공간모의(Relevant Simulation)' 방안을 제시한다. 이와 같은 방안들은 SVAP(Statistical Validation and Aggregation Procedure)라는 하나의 종합된 절차로서 제시된다.
-
A finite dam under
$P_{\lambda,;,T}^M-policy$ is considered, where the input of water is formed by a Wiener process subject to random jumps arriving according to a Poisson process. Explicit expression is deduced for the stationary distribution of the level of water. And the long-run average cost per unit time is obtained after assigning costs to the changes of release rate, a reward to each unit of output, and a penalty which is a function of the level of water in the reservoir. -
In this study, we investigate the effects of the weight function in the bounded influence regression quantile (BIRQ) estimator for the AR(1) model with additive outliers. In order to down-weight the outliers of X-axis, the Mallows' (1973) weight function has been commonly used in the BIRQ estimator. However, in our Monte Carlo study, the BIRQ estimator using the Tukey's bisquare weight function shows less MSE and bias than that of using the Mallows' weight function or Huber's weight function.
-
Lindsay and Basu (1994)에 의해 소개된 최소차이추정량 (Minimum Disparity Estimators)들은 실제 자료 분석 도구로써 유용하다. 본 논문에서는 최소일반화음지수 차이추정량 (Minimum Generalized Negative Exponential Disparity Estimator, MGNEDE)이 최대가능도추정량 (Maximum Likelihood Estimator, MLE)와 최소가중 헬링거거리추정량 (Minimum Blended Weight Hellinger Distance Estimator, MBWHDE)에 비해 오염된 정규모형에서 효율적이고 로버스트하다는 것을 모의실험을 통하여 확인하였다. 또한 세 가지 추정량들에 의해 추정된 모수들을 이용하여 판별하였을 때 자 추정량득의 판별율을 비교함으로써 오염된 정규모형에서 MLE의 대안으로 MGNEDE와 MBWHDE를 사용할 수 있음을 보였다.
-
우리는 모분산
$\sigma^2$ 에 대한 추정량으로서 표본분(equation omitted)을 주로 사용한다. 그러나, 제 7차 교육 과정에 따른 고등학교 수학 교과서(10-가, 수학 I과 실용수학)에서는 표본분산의 정의를(equation omitted)으로 사용하고 있다. 이 두 표본분산들의 관계를 알아보고, 시뮬레이션을 통하여 확인하여 본다. -
이 논문에서는 표본조사에서 자주 사용되는 표본의 대표성, 비편향성, 그리고 효율성에 개넘에 대하여 고찰하였다. 표본의 대표성은 조사단위의 포함확률로 표현되며 조사모집단의 포함범위와 연관이 있는 반면, 비편향성과 효율성은 표집설계와 추정량에 관련된 개념이다. 비편향성과 효율성은 표본의 대표성을 전제로 하며 가중치 부여로 나타난다
-
불균등 확률 계통추출에서는 모집단 총합에 대한 Horvitz-Thompson 추정량의 대안적 분산 추정량들을 사용하게 된다. 이와 같은 모총합에 관한 분산 추정량들의 설계와 관련한 일반적인 방법은 균등 확률 계통추출에 대한 분산 추정량들에서 시작하고 비율
$y_i,/P_i$ 에 의한 추정량의 정의에서$y_i$ 를 재배치하게 한다. 비선형 조사 통계학에서 추정량들 중의 하나로 테일러 급수 공식을 적용한다. 불균등 확률 계통추출에서의 분산은 8가지 방법으로 추정이 가능하므로 이를 이용한 분산추정량을 구해보고, 비복원 불균등 확률에서의 jackknife방법을 살펴보고자 한다. 또한 이들 분산추정량들에 대한 비교를 몇 가지 방법을 이용하여 알아보도록 한다. -
You 와 Rao (2002)는 소지역 추정시 유사 최량선형 비편향 예측에서 설계 가중 값을 사용하는 방법을 발전시켰다. 특히 소지역 평균들을 추정하기 위하여 유사-최량선형 비편향 예측 추정량을 제안하였다. 우리는 소지역 추정에서 실용적으로 이용되는 몇 가지 추가적인 성질을 연구하였다.
-
This paper will derive explicit unified pricing formulas for eight types of outside barrier options, respectively. The monitoring periods of these options start at an arbitrary date and end at another arbitrary date before maturity. The eight types of barrier options are up-and-in, up-and-out, down-and-in and down-and-out call (or put) options.
-
기업들이 심화된 경쟁체제 속에서 고객에 대한 보다 심층적인 이해를 필요로 하고 정보기술의 발달로 각 요소활동내용의 데이터화가 가능해짐에 따라 CRM으로 대변되는 고객 정보의 전략적 활용이 매우 중요하게 되었다. 이를 위해 기업은 고객에 대한 이해를 바탕으로 고객관리 및 마케팅을 수행하기 위한 필수적인 도구인 고객세분화를 수행하고 있다. 본 연구에서는 신용카드고객의 카드사용행태에 근거하여 서로 유사한 사용행태를 보이는 고객군으로 세분화하는 과정을 소개한다. 고객이 실제로 카드를 사용하면서 발생시킨 거래정보에만 의존하여 고객세분화를 수행하였으며 이는 마케팅의 관점에서 상당히 의미 있는 내용이라 볼 수 있다. 고객세분화를 위하여 데이터마이닝기법인 k-평균군집방법과 최장연결법에 의한 계보적 군집방법을 활용하였다
-
범주형 자료분석에서 차원축소(collapsibility)는 오즈비로 설명되었다. 실제의
$2\times2\timesK$ 분할표 자료를 이 이론에 적용시켰을 때 오즈비의 값으로 차원축소가 가능한지의 여부를 판단하기는 어렵다. 오즈비를 시각적으로 표현하는 방법 중에서 Doi, Nakamura와 Yamamoto(2001)가 제안한 Contour plot을 통해서 분할표 자료를 설명하는 것은 가능하지만 차원축소의 가능성을 결정하기에는 한계가 있다. 본 연구에서는 오즈비의 신뢰구간을 시각적으로 표현할 수 있는 방법으로 Barrowman과 Myers(2003)가 제안한 Raindrop plot을 이용하여$P_{\lambda,;,T}^M-policy$ 분할표 자료를 설명할 수 있으며 동시에 차원축소의 가능성을 판단할 수 있는 방법을 제안하고자 한다. -
Statistical process control (SPC) and engineering process control (EPC) are based on different strategies for process quality improvement. SPC reduces process variability by detecting and eliminating special causes of process variation, while EPC reduces process variability by adjusting compensatory variables to keep the quality variable close to target. Recently there has been need for an integrated process control (IPC) procedure which combines the two strategies. This article considers a scheme that simultaneously applies SPC and EPC techniques to reduce the variation of a process. The process disturbance model under consideration is an IMA(1,1) model with a location shift. The EPC part of the scheme adjusts the process, while the SPC part of the scheme detects the occurrence of a special cause. For adjusting the process repeated adjustment is applied by compensating the predicted deviation from target. For detecting special causes the two kinds of exponentially weighted moving average (EWMA) control chart are applied to the observed deviations: One for detecting location shift and the other for detecting increment of variability. It was assumed that the adjustment of the process under the presence of a special cause may change any of the process parameters as well as the system gain. The effectiveness of the IPC scheme is evaluated in the context of the average cost per unit time (ACU) during the operation of the scheme. One major objective of this article is to investigate the effects of the process parameters to the ACU. Another major objective is to give a practical guide for the efficient selection of the parameters of the two EWMA control charts.
-
비모수적 결측치 대치 방법으로 널리 사용되는 k-nearest neighbors(KNN) 방법은 자료의 국소적(local) 특징을 고려하지 않고 전체 자료에 대해 균일한 이웃의 개수 k를 사용하는 단점이 있다. 본 연구에서는 KNN의 대안으로 자료의 국소적 특징을 고려하는 adaptive nearest neighbors(ANN) 방법을 제안하였다. 나아가 microarray 자료의 경우에 대하여 결측치 대치를 통해 KNN과 ANN의 성능을 비교하였다.
-
데이터 마이닝을 이용하여 20대 이상의 사람들을 대상으로 남녀간의 고혈압 발병여부에 따른 고혈압 위험요인에 대하여 분석하였다. 분석된 위험요인들의 개별적인 영향력을 알아보고, 이를 바탕으로 남녀간의 고혈압 발병여부에 대하여 적절한 모형을 만들었다
-
One Important problem in a cancer microarray study is to identify a set of genes from which a molecular prognostic indicator can be developed. In parallel with this problem is to validate the chosen set of genes. We develop in this note a K-fold cross validation procedure by combining a 'pre-validation' technique and a bootstrap resampling procedure in the Cox regression . The pre-validation technique predicts the microarray predictor of a case without having seen the true class level of the case. It was suggested by Tibshirani and Efron (2002) to avoid the possible over-fitting in the regression in which a microarray based predictor is employed. The bootstrap resampling procedure for the Cox regression was proposed by Sauerbrei and Schumacher (1992) as a means of overcoming the instability of a stepwise selection procedure. We apply this K-fold cross validation to the microarray data of 92 gastric cancers of which the experiment was conducted at Cancer Metastasis Research Center, Yonsei University. We also share some of our experience on the 'false positive' result due to the information leak.
-
최근 들어 조사통계는 응답자들의 응답 부담에 의하여 무응답 혹은 통계의 질 저하라는 문제에 직면하게 되었다. 이에 본 논문에서는 우리나라의 조사 대상자인 사업체는 어떤 요인에 특히 응답 부담을 가지고 있는 지 실태조사를 통하여 파악해 보았으며, 그 결과 통계조사가 너무 많다라는 점과 조사표가 너무 전문적이라는 의견을 알 수 있었다. 또한 응답 부담을 객관화할 수 있는 지표를 검토하면서 응답 부담 경감방안에 대해 살펴보았다.
-
A weighted self-tuning robust regression estimator (WSTE) has the high breakdown point for estimating regression parameters such as other well known high breakdown estimators. In this paper, we propose to obtain standard quantities like confidence intervals, and it is found to be superior to the other high breakdown regression estimators when a sample is contaminated
-
우리는 직교배열로서 직교계획, 즉 강도(strength)가 2인 직교배열을 주로 이용한다. 그러나, 강도 3인 직교배열은 주효과들과 2인자교호작용이 포함되는 가법모형 하에서 전체최적화(universal optimality)하다는 것이 밝혀져 있다. 그러므로, 임의의 배열이 강도 3인 직교배열인가를 평가하는 측도가 필요하다. 이를 확장하면 임의의 배열이 강도
$t(\geqt2)$ 인 직교배열인가를 평가하는 측도를 제안할 수 있다. -
코호넨(T. Kohonen)의 자기조직화지도(Self-Organizing Map; SOM)은 저차원 그리드 공간에 고차원 다변량 자료를 축약하여 시각적으로 나타내는 비지도 학습법의 일종으로 최근 들어 통계 분석자들이 많은 관심을 가지고 있는 분야이다. 그러나 SOM은 개체공간의 연속형으로 표현되는 개체를 저차원 그리드공간에 승자노드에 비연속적으로 표현한다는 단점을 지니고 있다. 본 논문에서는 SOM을 통계적 목적으로 사용하기 위해 요구되는 그리드공간에 개체를 연속적으로 표현하는 방법들을 제안하고 활용 예를 제시하고자 한다
-
최근에 베이지안 통계학은 경제 경영 그리고 의학 뿐 만 아니라 공학 등의 많은 분야에서 그 응용의 정도가 급속히 증가하는 추세이다. 그러나 베이지안 추론 또는 법칙들이 이론적으로 간단하지만 많은 경우 계산상에 어려움 때문에 실제 적용에 어려움이 있다 이러한 상황을 극복하기 위해 간단한 통계 패키지 프로그램인 미니텝을 이용한 여러 가지 적용 방법을 알아본다. 또한 미니탭 매크로의 사용을 원활히 적용함으로써 보다 발전적으로 베이지안 통계 계산을 용이하게 할 수 있다
-
This article presents a multiple comparison ranking procedure for several products of the Poisson rates. A preference probability matrix that warrants the optimal comparison ranking is introduced. Using a Bayesian Monte Carlo method, we develop simulation-based procedure to estimate the matrix and obtain the optimal ranking via a row-sum scores method. Necessary theory and two illustrative examples are provided.
-
In standard time-to-event or survival analysis, the occurrence times of the event of interest are observed exactly or are right-censored. However in certain situations such as the AIDS data, the incubation period which is the time between HIV infection time and the diagnosis of AIDS is usually doubly censored. That is the HIV infection time Is interval censored and also the time of the diagnosis of AIDS is right censored. In this paper, we Impute the Interval censored infection time using the conditional mean imputation and estimate the coefficient factor of the regression analysis for the incubation period using Gibbs sampler. We applied parametric and semi-parametric methods for the analysis of the Incubation period and compared the results.
-
The timings of two successive events of interest may not be measurable, instead it may be right censored or interval censored; this data structure is called doubly censored data. In the study of HIV, two such events are the infection with HIV and the onset of AIDS. These data have been analyzed by authors under the assumption that infection time and induction time are independent. This paper investigates the regression problem when two events arc modeled to allow the presence of a possible relation between two events as well as a subject-specific effect. We derive the estimation procedure based on Goetghebeur and Ryan's (2000) piecewise exponential model and Gauss-Hermite integration is applied in the EM algorithm. Simulation studies are performed to investigate the small-sample properties and the method is applied to a set of doubly censored data from an AIDS cohort study.
-
우리나라 초
$\cdot$ 중$\cdot$ 고등학교 확률 및 통계영역 교육은 1997년 교육인적자원부 교시로 제 7차 수학과 교육과정이 개정되어 현재 초$\cdot$ 중$\cdot$ 고등학교 현장에서 시행되고 있다. 교과서 전수 조사를 통하여 제 7차 수학과 교육과정에 따른 실용수학 및 수학 I 확률 및 통계단원을 분석하였다. -
본 연구에서는 기존 연구들에서 제기된 중등교육과정 통계교육의 여러 가지 문제점을 정리해보고, 통계교육에 도움을 제공할 수 있는 웹사이트의 구축 방안을 탐색해 보고자 한다.
-
통계학의 여러 개념들을 효과적으로 가르치기 위한 다양한 연구들이 진행되고 적용되고 있다. 그러나 기초통계학 교육에서 교수자와 학습자 모두 교수와 학습의 어려움을 끊임없이 제기하고 있다. 또한 기존의 교수학습 방법들을 현실에 적용하기에는 시간과 교구재 등 여러 가지 어려움이 있어서 실제 적용되지 못하고 있는 것이 현실이다. 본 연구에서는 기존의 연구들에서 주장하고 입증된 교수학습 방법들을 교실 현장에서 쉽게 적용할 수 있도록 하는 통계 교수학습 모형을 제시하고자 한다. 이를 위해 문제위주 학습과 협동학습 등을 통해 학습자의 참여를 높여 학습효과를 증대할 수 있는 구성 주의적 학습활동을 네트워크와 웹을 기반으로 수행하는 교수학습 모형을 제안한다
-
불균형중첩오차구조를 갖는 단순선형회귀모형에서 나타나는 두 분산의 합에 대한 신뢰구간을 구하기 위하여 Ting et al.(1990) 방법과 Graybill and Wang(1980) 방법과 Tsui and Weerahandi(1989)가 제안한 일반화 축량(generalized pivotal quantity)방법을 이용한 두 가지 방법 등 모두 네 가지 신뢰구간을 제안한다. 신뢰구간의 적절성을 판단하기 위하여 여러 가지 불균형 설계에 대하여 SAS/IML로 시뮬레이션을 실행하고 신뢰계수와 신뢰구간의 평균 길이를 비교한다. 불균형중첩오차구조를 갖는 단순선형회귀모형의 두 분산의 합에 대한 네 가지 신뢰구간들이 주샘플링 단위의 변화에 따라 어느 방법이 적절한 신뢰구간을 구축하는지 추천하고, 실제 예제를 적용하여 시뮬레이션의 결과와 일관성이 있는지를 확인한다.
-
이 논문에서는 유한모집단 분포함수에 대한 추정량들을 소개하고, 이론적인 측면과 경험적인 측면으로 비교하였다 분포함수 추정량은 설계기반 특성을 갖는 추정량과 모형기반 특성을 갖는 추정량으로 구분되며, 각각 설계기반 특성과 모형기반 특성을 갖는다. 수치적인 비교를 위하여 분포함수 추정량들을 2000년 인구주택 총 조사의 서울 가구수와 가구원수 데이터에 적합하여 비교하였다.
-
최근 마케팅 현업에서 마이크로 마케팅(Micro Marketing)이 마케팅 기법의 화두로 등장하면서 데이터 퓨전(Data Fusion) 또는 데이터 인리치먼트(Data Enrichment)가 각광받는 영역으로 등장하고 있다. 본 연구에서는 데이터 퓨전의 개념과 그를 둘러싸고 있는 통계적 문제와 그 대안에 대하여 논의한다.
-
지금까지 의사결정나무에서 분리 변수의 선택에 관한 연구는 많았으나, 대부분 연속형 변수와 명목형 변수에 국한되어 왔다. 본 연구에서는 순서형 변수에 주목하여 CART, QUEST, CRUISE 등 기존 알고리즘과 본 연구에서 제안하는 비모수적 접근 방법인 K-S test, framer-von Misos test 방법의 변수 선택력을 비교하였다. 그 결과 본 연구에서 제안하는 framer-von Mises test 방법이 다른 알고리즘에 비하여, 변수 선택력과 안정성에 있어서 좋은 성과를 보였다.
-
We consider M/G/1 queue in which the customers are classified into n+1 classes by their impatience time. First, we analyze the model of two types of customers; one is the customer with constant impatience duration k and the other is patient customer. The expected busy period of the server and the limiting distribution of the virtual waiting time process are obtained. Then, the model is generalized to the one in which there are classes of customers according to their impatience duration.
-
We consider a G/M/1 queue with two-stage service policy. The server starts to serve with rate of
${\mu}1$ customers per unit time until the number of customers in the system reaches A. At this moment, the service rate is changed to that of${\mu}2$ customers per unit time and this rate continues until the system is empty. We obtain the stationary distribution of the number of customers in the system. -
We consider the
$P_\lambda\;^M$ service policy for an M/G/1 queue in which the service rate is increased from 1 to M at the exponential setup time after the level of workload exceeds$\lambda$ . The stationary distribution of the workload is explicitly obtained through the level crossing argument. -
In our fast-moving information and knowledge society, skills and know-how rapidly become outdated. Virtual learning environments play a key role in meeting today's growing demand for customized educational and vocational training and lift-long teaming. The scope of multimedia-based and web-supported education is illustrated by means of an interdisciplinary multimedia project 'New Statistics' funded by the German government. The project output contains more than 70 learning modules covering the complete curriculum of an introductory statistics course. All modules are based on a statistical laboratory and on a multitude of Java applets, animations and case studies. The paper focuses on presenting the statistical laboratory and the applets. These components present the main project pillars and are particularly suitable for international use, independently from the original project framework. This article also demonstrates the application of Java applets and other multimedia developments from the educational world to official statistics for interactive presentation of statistical information.
-
Confounded row-column designs for factorial experiments are studied in this paper. The Designs, thus, have factorial balance with respect to estimable main effects and interactions. John and Lewis (1983) considered generalized cycle row=column designs for factorial experiments. A simple method of constructing confounded designs using the classical method of confounding for block designs is described in this paper