• Title/Summary/Keyword: 평균방법

Search Result 13,177, Processing Time 0.039 seconds

Development of a mean-surface velocity conversion coefficient using the surface image velocimeter (표면영상유속계를 활용한 평균-표면유속 환산계수 산정방법 개발)

  • 정태성;최창원;임윤성;김서준
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.84-84
    • /
    • 2023
  • 소하천의 유속계측을 위해 가장 많이 사용되고 있는 표면영상유속계는 표면유속을 계측하는데, 계측된 표면유속을 이용하여 유량을 산정하기 위해서는 수심 평균유속으로 변환할 필요가 있다. 이때 평균-표면유속 환산계수가 주로 사용되는데, 적정 환산계수를 산정하기 위해서는 수심별로 유속을 직접 계측하고 계측된 유속분포를 이용하여 평균-표면유속 환산계수를 산정하는 방법을 사용한다. 그러나 소하천은 홍수시 유속이 매우 빨라 물속에 직접 들어가는 것이 어렵고 장비를 이용하여 간접적인 방법으로 계측을 한다고 하더라도 소류사와 유송잡물 등으로 계측기가 파손되어 직접 계측에는 한계가 있다. 또한 직선구간 확보나 식생 등으로 부자를 이용한 계측도 어려워 계측 결과를 이용하여 환산계수를 산정하는 방법은 한계가 있다. 이런 이유로 대부분은 USGS가 제시한 0.85 ~ 0.95 범위 값 중에서 현장 여건을 고려하여 최적값을 결정·사용하고 있다. 본 연구에서는 홍수시 수심-유속분포를 직접 계측하기 어려운 소하천에서 표면영상유속계를 이용하여 계측한 수심별 표면유속분포를 이용하여 평균-표면유속 환산계수를 산정하는 방법을 개발하였다. 개발한 방법을 정량적으로 평가하기 위하여 건설기술연구원의 안동 하천실험시설에서 표면영상유속계로 수심상승에 따른 횡방향 유속분포를 계측하고 수위가 완전히 상승한 이후의 안정된 흐름 조건에서 플로우트래커를 이용하여 수심별 횡방향 유속분포를 계측하여 두 계측결과를 1:1로 비교하였다. 비교 결과 표면영상유속계로 계측한 수심별 표면유속분포와 플로우트래커로 계측한 수심-유속분포 결과는 유사한 분포를 보이는 것으로 나타나 표면영상유속계로 계측한 수심별 표면유속분포를 이용하여 평균-표면유속 환산계수를 산정하는 것이 가능하다는 결론을 도출하였다. 본 연구에서는 개발한 평균-표면유속 환산계수 산정방법의 적용성을 검토하기 위하여 표면영상유속계가 설치된 5개 시범소하천에서 7년(2016~2022)간 계측한 수심별 표면유속 자료를 수집하고 이 결과를 이용하여 평균-표면유속 환산계수를 산정하였다. 산정결과 대부분 USGS가 제시한 범위내의 값을 보이는 것으로 나타나 향후 본 연구의 개발 방법을 평균-표면유속 환산계수 산정에 활용할 수 있을 것으로 판단된다. 본 연구에서는 개발한 환산계수 산정방법은 향후 보다 많은 수리실험과 현장실험 등으로 정밀검증을 수행한다면 홍수시 수심-유속분포를 직접 계측하기 어려운 소하천에서 간편하면서도 적용성이 큰 신기술 확보가 가능할 것으로 기대된다.

  • PDF

Estimation of Mean Residence Time using Soil Moisture at a Hillslope on the Forested Catchment (산림 사면에서 토양수분을 이용한 물 평균체류시간 추정)

  • Jin, Sung-Won;Kim, Sang-Hyun
    • Journal of Korea Water Resources Association
    • /
    • v.41 no.12
    • /
    • pp.1199-1210
    • /
    • 2008
  • The mean residence time is the time scale for intermediate status between infiltration and runoff and one of the critical factors for understanding runoff response, erosion, and eco-hydrological processes. This research explored a direct method to estimate the mean residence time over existing indirect, isotope tracer method. Spatial and temporal distributions of soil moisture have been monitored for a year with 2-hours monitoring interval. Mean residence time for soil moisture showed apparent increasing tendency to deeper depth and decreasing trend during summer periods, which had intensive rainfall events. The mean residence times obtained from this research showed similar trend to those obtained from other isotope methods, which means the direct method can be an efficient approach to obtain the mean residence time.

A Single Index Approach for Time-Series Subsequence Matching that Supports Moving Average Transform of Arbitrary Order (단일 색인을 사용한 임의 계수의 이동평균 변환 지원 시계열 서브시퀀스 매칭)

  • Moon Yang-Sae;Kim Jinho
    • Journal of KIISE:Databases
    • /
    • v.33 no.1
    • /
    • pp.42-55
    • /
    • 2006
  • We propose a single Index approach for subsequence matching that supports moving average transform of arbitrary order in time-series databases. Using the single index approach, we can reduce both storage space overhead and index maintenance overhead. Moving average transform is known to reduce the effect of noise and has been used in many areas such as econometrics since it is useful in finding overall trends. However, the previous research results have a problem of occurring index overhead both in storage space and in update maintenance since tile methods build several indexes to support arbitrary orders. In this paper, we first propose the concept of poly-order moving average transform, which uses a set of order values rather than one order value, by extending the original definition of moving average transform. That is, the poly-order transform makes a set of transformed windows from each original window since it transforms each window not for just one order value but for a set of order values. We then present theorems to formally prove the correctness of the poly-order transform based subsequence matching methods. Moreover, we propose two different subsequence matching methods supporting moving average transform of arbitrary order by applying the poly-order transform to the previous subsequence matching methods. Experimental results show that, for all the cases, the proposed methods improve performance significantly over the sequential scan. For real stock data, the proposed methods improve average performance by 22.4${\~}$33.8 times over the sequential scan. And, when comparing with the cases of building each index for all moving average orders, the proposed methods reduce the storage space required for indexes significantly by sacrificing only a little performance degradation(when we use 7 orders, the methods reduce the space by up to 1/7.0 while the performance degradation is only $9\%{\~}42\%$ on the average). In addition to the superiority in performance, index space, and index maintenance, the proposed methods have an advantage of being generalized to many sorts of other transforms including moving average transform. Therefore, we believe that our work can be widely and practically used in many sort of transform based subsequence matching methods.

On-Line Determination Steady State in Simulation Output (시뮬레이션 출력의 안정상태 온라인 결정에 관한 연구)

  • 이영해;정창식;경규형
    • Proceedings of the Korea Society for Simulation Conference
    • /
    • 1996.05a
    • /
    • pp.1-3
    • /
    • 1996
  • 시뮬레이션 기법을 이용한 시스템의 분석에 있어서 실험의 자동화는 현재 많은 연구와 개발이 진행 중인 분야이다. 컴퓨터와 정보통신 시스템에 대한 시뮬레이션의 예를 들어 보면, 수많은 모델을 대한 시뮬레이션을 수행할 경우 자동화된 실험의 제어가 요구되고 있다. 시뮬레이션 수행회수, 수행길이, 데이터 수집방법 등과 관련하여 시뮬레이션 실험방법이 자동화가 되지 않으면, 시뮬레이션 실험에 필요한 시간과 인적 자원이 상당히 커지게 되며 출력데이터에 대한 분석에 있어서도 어려움이 따르게 된다. 시뮬레이션 실험방법을 자동화하면서 효율적인 시뮬레이션 출력분석을 위해서는 시뮬레이션을 수행하는 경우에 항상 발생하는 초기편의 (initial bias)를 제거하는 문제가 선결되어야 한다. 시뮬레이션 출력분석에 사용되는 데이터들이 초기편의를 반영하지 않는 안정상태에서 수집된 것이어야만 실제 시스템에 대한 올바른 해석이 가능하다. 실제로 시뮬레이션 출력분석과 관련하여 가장 중요하면서도 어려운 문제는 시뮬레이션의 출력데이터가 이루는 추계적 과정 (stochastic process)의 안정상태 평균과 이 평균에 대한 신뢰구간(confidence interval: c. i.)을 구하는 것이다. 한 신뢰구간에 포함되어 있는 정보는 의사결정자에게 얼마나 정확하게 평균을 추정할 구 있는지 알려 준다. 그러나, 신뢰구간을 구성하는 일은 하나의 시뮬레이션으로부터 얻어진 출력데이터가 일반적으로 비정체상태(nonstationary)이고 자동상관(autocorrelated)되어 있기 때문에, 전통적인 통계적인 기법을 직접적으로 이용할 수 없다. 이러한 문제를 해결하기 위해 시뮬레이션 출력데이터 분석기법이 사용된다.본 논문에서는 초기편의를 제거하기 위해서 필요한 출력데이터의 제거시점을 찾는 새로운 기법으로, 유클리드 거리(Euclidean distance: ED)를 이용한 방법과 현재 패턴 분류(pattern classification) 문제에 널리 사용 중인 역전파 신경망(backpropagation neural networks: BNN) 알고리듬을 이용하는 방법을 제시한다. 이 기법들은 대다수의 기존의 기법과는 달리 시험수행(pilot run)이 필요 없으며, 시뮬레이션의 단일수행(single run) 중에 제거시점을 결정할 수 있다. 제거시점과 관련된 기존 연구는 다음과 같다. 콘웨이방법은 현재의 데이터가 이후 데이터의 최대값이나 최소값이 아니면 이 데이터를 제거시점으로 결정하는데, 알고기듬 구조상 온라인으로 제거시점 결정이 불가능하다. 콘웨이방법이 알고리듬의 성격상 온라인이 불가능한 반면, 수정콘웨이방법 (Modified Conway Rule: MCR)은 현재의 데이터가 이전 데이터와 비교했을 때 최대값이나 최소값이 아닌 경우 현재의 데이터를 제거시점으로 결정하기 때문에 온라인이 가능하다. 평균교차방법(Crossings-of-the-Mean Rule: CMR)은 누적평균을 이용하면서 이 평균을 중심으로 관측치가 위에서 아래로, 또는 아래서 위로 교차하는 회수로 결정한다. 이 기법을 사용하려면 교차회수를 결정해야 하는데, 일반적으로 결정된 교차회수가 시스템에 상관없이 일반적으로 적용가능하지 않다는 문제점이 있다. 누적평균방법(Cumulative-Mean Rule: CMR2)은 여러 번의 시험수행을 통해서 얻어진 출력데이터에 대한 총누적평균(grand cumulative mean)을 그래프로 그린 다음, 안정상태인 점을 육안으로 결정한다. 이 방법은 여러 번의 시뮬레이션을 수행에서 얻어진 데이터들의 평균들에 대한 누적평균을 사용하기 매문에 온라인 제거시점 결정이 불가능하며, 작업자가 그래프를 보고 임의로 결정해야 하는 단점이 있다. Welch방법(Welch's Method: WM)은 브라운 브리지(Brownian bridge) 통계량()을 사용하는데, n이 무한에 가까워질 때, 이 브라운 브리지 분포(Brownian bridge distribution)에 수렴하는 성질을 이용한다. 시뮬레이션 출력데이터를 가지고 배치를 구성한 후 하나의 배치를 표본으로 사용한다. 이 기법은 알고리듬이 복잡하고, 값을 추정해야 하는 단점이 있다. Law-Kelton방법(Law-Kelton's Method: LKM)은 회귀 (regression)이론에 기초하는데, 시뮬레이션이 종료된 후 누적평균데이터에 대해서 회귀직선을 적합(fitting)시킨다. 회귀직선의 기울기가 0이라는 귀무가설이 채택되면 그 시점을 제거시점으로 결정한다. 일단 시뮬레이션이 종료된 다음, 데이터가 모아진 순서의 반대 순서로 데이터를 이용하기 때문에 온라인이 불가능하다. Welch절차(Welch's Procedure: WP)는 5회이상의 시뮬레이션수행을 통해 수집한 데이터의 이동평균을 이용해서 시각적으로 제거시점을 결정해야 하며, 반복제거방법을 사용해야 하기 때문에 온라인 제거시점의 결정이 불가능하다. 또한, 한번에 이동할 데이터의 크기(window size)를 결정해야 한다. 지금까지 알아 본 것처럼, 기존의 방법들은 시뮬레이션의 단일 수행 중의 온라인 제거시점 결정의 관점에서는 미약한 면이 있다. 또한, 현재의 시뮬레이션 상용소프트웨어는 작업자로 하여금 제거시점을 임의로 결정하도록 하기 때문에, 실험중인 시스템에 대해서 정확하고도 정량적으로 제거시점을 결정할 수 없게 되어 있다. 사용자가 임의로 제거시점을 결정하게 되면, 초기편의 문제를 효과적으로 해결하기 어려울 뿐만 아니라, 필요 이상으로 너무 많은 양을 제거하거나 초기편의를 해결하지 못할 만큼 너무 적은 양을 제거할 가능성이 커지게 된다. 또한, 기존의 방법들의 대부분은 제거시점을 찾기 위해서 시험수행이 필요하다. 즉, 안정상태 시점만을 찾기 위한 시뮬레이션 수행이 필요하며, 이렇게 사용된 시뮬레이션은 출력분석에 사용되지 않기 때문에 시간적인 손실이 크게 된다.

  • PDF

A Machine Learning Algorithm Study for Predicting Time-Averaged Velocity Fluctuations in Turbulent Jets (난류 제트 내 시간 평균 속도 변동 예측을 위한 기계 학습 알고리즘)

  • Seongeun Choi;Jin Hwan Hwang
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.130-130
    • /
    • 2023
  • 제트류는 다양한 크기와 운동량의 에디가 복잡하게 혼합되어 이루어져 있으며, 이를 정확하게 모델링하고 이해하기 위해서는 제트류의 다양한 특성들을 잘 반영하여 연구를 수행해야 한다. 다양한 연구 수행 방법 중 수치해석 방법은 상대적으로 공간 및 시간적 비용이 적게 들어서 널리 사용되고 있다. 이러한 수치해석 방법에는 DNS(Direct Numerical Simulation), LES(Large Eddy Simulation), RANS(Reynolds Averaged Navier Stokes) 등이 있으며, 그중 LES는 난류 모델링을 사용하는 RANS 방법에 비해 더욱 정확한 흐름 모델링을 제공하는 장점이 있다. 이러한 LES는 대규모 에디는 직접 해석하면서, 일정 크기 이하의 에디는 모델링을 사용해 해석하는 것이 특징이다. 하지만, LES를 사용하기 위해서는 적절한 그리드 크기를 결정하는 것이 중요하며, 이는 모델의 정확성과 연산 비용에 큰 영향을 미친다. 하지만, 여전히 적절한 그리드 크기를 결정하는 것은 어려운 문제이다. 이러한 LES 모델링을 사용할 때 적절한 그리드 크기를 결정하기 위해서는 정확한 시간 평균 속도 변동을 연구하는 것이 앞서 선행되어야 한다. 따라서, 본 연구에서는 기계학습 기반 접근 방식을 사용하여 난류 제트 내 시간 평균 속도 변동을 예측하는 연구를 진행하였다. 즉, 난류 제트 역학을 이해하는 데 중요한 파라미터인 시간 평균 유속을 이용하여 시간 평균 속도 변동을 예측하는 데 초점을 맞추었다. 모델의 성능은 평균 제곱 오차와 R-제곱 등 다양한 지표를 사용하여 평가되었다.

  • PDF

A Study on Customer's Satisfaction of Web site providing Science & Technology Contents (과학기술 콘텐츠 제공 웹 사이트의 고객만족도에 관한 연구)

  • 김윤종;문영호
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2003.05a
    • /
    • pp.303-307
    • /
    • 2003
  • The purpose of this paper is to develop the model of the customer's satisfaction score for web site providing science & technology contents. The most important issue for the customer's satisfaction score is providing more appropriate information service about science & technology. Internet questionnaire method was used to collect data of the satisfaction level of customers. Data was collected from December 15th though December 30th, 2002. There were 2, 092 respondents to questionnaire. Statistical analysis were used in this Study. The score of the customer's satisfaction for web site providing science & technology contents is 87.13 which is from our customer's satisfaction score model.

  • PDF

Estimation of Population Mean Using Modified Systematic Sampling and Least Squares Method (변형된 계통추출과 최소제곱법을 이용한 모평균 추정)

  • 김혁주
    • The Korean Journal of Applied Statistics
    • /
    • v.17 no.1
    • /
    • pp.105-117
    • /
    • 2004
  • In this paper, a new method is developed for estimating the mean of a population which has a linear trend. This method involves drawing a sample by the modified systematic sampling, and then estimating the population mean with an adjusted estimator, not with the sample mean itself. We use the method of least squares in determining the adjusted estimator. The proposed method is shown to be more and more efficient as the linear trend becomes stronger. It turns out to be relatively efficient as compared with the conventional methods if $\sigma$$^2$the variance of the random error term in the infinite superpopulation model, is not very large.

Comparison of Accuracy for Chromosome Classification using Different Feature Extraction Methods based on Density Profile (Density Profile 추출 방법에 따른 염색체 분류정확도 비교분석)

  • Choi, Kwang-Won;Song, Hae-Jung;Kim, Jong-Dae;Kim, Yu-Seop;Lee, Wan-Yeon;Park, Chan-Young
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.226-229
    • /
    • 2010
  • 본 연구에서는 다양한 density profile 특징추출에 기반한 염색체 자동분류방법들의 성능을 비교분석하였다. density profile은 염색체의 밴드패턴을 가장 잘 표현한 특징으로 염색체의 중심축을 구성하는 화소들의 밝기 값을 추출하는 방법이다. 염색체의 밴드패턴은 염색체의 끝단까지를 잘 표현해주어야만 정확한 염색체번호를 확인할 수 있다. 따라서 염색체의 중심축을 추출하여 염색체 끝단까지 확장 처리한 방법에 대한 성능을 확인하였다. 염색체 중심축에 위치한 화소만을 이용한 프로파일은 잡음에 민감할 수 있으므로 이를 해결하기 위하여 염색체의 중심축에 대한 화소 값 대신 주변 밝기 값들에 대한 평균을 이용한 국소평균방법과 중심축의 수직라인 상에 존재하는 화소 값들에 대한 평균을 구한 수직평균방법을 비교하였다. 분류알고리즘은 k-NN을 사용하였고, 실험데이터는 (주)Gendix 로부터 제공받은 임상적으로 정상인 100명(남자 50명, 여자 50명)으로부터 추출한 4600개의 염색체 영상을 훈련데이터와 테스트데이터로 각각 50%씩 랜덤하게 분리하여 실험하였다. 실험결과 중심축을 확장하고 수직평균에 대한 프로파일을 특징으로 추출하여 분류한 경우가 가장 좋은 성능을 보였다.

  • PDF

K-Means Clustering in the PCA Subspace using an Unified Measure (통합 측도를 사용한 주성분해석 부공간에서의 k-평균 군집화 방법)

  • Yoo, Jae-Hung
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.17 no.4
    • /
    • pp.703-708
    • /
    • 2022
  • K-means clustering is a representative clustering technique. However, there is a limitation in not being able to integrate the performance evaluation scale and the method of determining the minimum number of clusters. In this paper, a method for numerically determining the minimum number of clusters is introduced. The explained variance is presented as an integrated measure. We propose that the k-means clustering method should be performed in the subspace of the PCA in order to simultaneously satisfy the minimum number of clusters and the threshold of the explained variance. It aims to present an explanation in principle why principal component analysis and k-means clustering are sequentially performed in pattern recognition and machine learning.

Estimation of conditional mean residual life function with random censored data (임의중단자료에서의 조건부 평균잔여수명함수 추정)

  • Lee, Won-Kee;Song, Myung-Unn;Jeong, Seong-Hwa
    • Journal of the Korean Data and Information Science Society
    • /
    • v.22 no.1
    • /
    • pp.89-97
    • /
    • 2011
  • The aims of this study were to propose a method of estimation for mean residual life function (MRLF) from conditional survival function using the Buckley and James's (1979) pseudo random variables, and then to assess the performance of the proposed method through the simulation studies. The mean squared error (MSE) of proposed method were less than those of the Cox's proportional hazard model (PHM) and Beran's nonparametric method for non-PHM case. Futhermore in the case of PHM, the MSE's of proposed method were similar to those of Cox's PHM. Finally, to evaluate the appropriateness of practical use, we applied the proposed method to the gastric cancer data. The data set consist of the 1, 192 patients with gastric cancer underwent surgery at the Department of Surgery, K-University Hospital.