• Title/Summary/Keyword: 결정확률 함수

Search Result 308, Processing Time 0.031 seconds

Probabilistic Analysis for Rock Slope Stability (확률론적 해석방법을 이용한 암반사면 안정성 해석)

  • Park Hyuck-Jin
    • Proceedings of the Korean Geotechical Society Conference
    • /
    • 2000.03b
    • /
    • pp.365-372
    • /
    • 2000
  • 현장상황에 대한 불충분한 자료와 파괴 메커니즘에 대한 불완전한 이해로 인해 발생하는 가변성(variability)과 불확실성(uncertainty)은 암반사면공학뿐만 아니라 지반공학에서 흔히 접하게 되는 문제점이다. 특히 암반사면공학에서는 이러한 가변성과 불확실성이 불연속면의 방향 및 기하학적 특성, 그리고 실내실험 결과의 분산으로 나타난다. 그러나 안전율(factor of safety)의 개념을 기초로 하는 전통적인 결정론적 해석방법(deterministic analysis)은 이러한 분산을 고려하지 않은 채 단일 대표 값만을 이용하여 구조물의 안정성을 판단하여 왔다. 확률론적 해석방법(probabilistic analysis)은 이러한 가변성과 불확실성을 효과적으로 정량화하여 해석에 이용할 수 있는 방법 중의 하나로 제안되었다. 이러한 해석방법은 불연속면의 기하학적 특성과 강도 특성을 확률변수(random variable)로 취급하여 신뢰성이론(reliability theory)과 확률이론(probability theory)을 근거로 분석하였으며 이를 기초로 하여 Monte Carlo Simulation과 같은 해석법을 이용, 구조물의 붕괴가능성을 확률로 표현하였다. 확률론적 해석 방법은 기존의 안전율을 대체하여 구조물의 안정성을 붕괴확률(probability of failure)로 제안하였으며 이 붕괴확률은 안전율의 확률분포함수 (probability density function)에서 안전율이 1보다 작을 가능성을 확률로 나타낸 수치이다. 본 논문에서는 확률론적 해석방법을 이용하여 불연속면 특성들의 확률특성을 고찰하였으며 이를 기초로 하여 암반사면의 안정성 해석에 응용했다.

  • PDF

Estimation of Probability Density Function of Tidal Elevation Data (조위자료의 확률밀도함수 추정)

  • Hong Yeon Cho;Jeong Shin Taek;Oh Young Min
    • Journal of Korean Society of Coastal and Ocean Engineers
    • /
    • v.16 no.3
    • /
    • pp.152-161
    • /
    • 2004
  • Double-peak normal distribution function was suggested as the probability density function of the tidal elevation data in Korean coastal zone. Frequency distribution analysis was carried out using hourly tidal elevation data of the ten tidal gauging stations, i.e., Incheon, Kunsan, Mokpo, Cheju, Yeosu, Masan, Gadeokdo, Pusan, Pohang, and Sokcho which were served through the Internet Homepage by the National Ocean Research Institute. Based on the RMS error and $R^2$ value comparison analysis, it was found that this suggested function as the probability density function of the tidal elevation data was found to be more appropriate than the normal distribution function. The parameters of the double-peak function were estimated optimally using Levenberg-Marquardt method which was modified from the Newton method. The estimated parameters were highly correlated with the non-tidal constants of the tidal gauging stations.

Risk Analysis of Highway Investment by Private Sectors (민자유치대상고속도로 투자의 위험도분석)

  • 이용택;김상범;원제무
    • Journal of Korean Society of Transportation
    • /
    • v.17 no.5
    • /
    • pp.33-42
    • /
    • 1999
  • 본 논문은 도로투자 사업성분석시 사업주체의 현금흐름을 결정하는 항목들을 고정값(Deterministic Value)이 아닌 확률적으로 추정함으로써, 사업의 재무적 변동으로 인한 위험도를 민간사업자의 견지에서 사업성분석과정에 내재화하는 모형을 개발하는 것이다. 즉, 확률적 비용추정기법으로 국소적으로 활용되던 위험도분석을 재무모형에 내재화함으로써 사업의 재무적 변동을 보다 포괄적으로 분석할 수 있는 틀을 제공한다. 본 연구에서는 몬테카를로 시뮬레이션기법을 이용한 위험도분석(Risk Analysis)을 적용하여 사업성 평가지표와 비용의 확률밀도함수(Probability Density Function : PDF), 누적확률분포함수(Cumulative Distribution Function : CDF)를 산출하고, 그 결과로 해당 사업의 위험도를 고려하여 사업성을 평가한다. 이 모형은 사업의 모든 변동요인을 복합적으로 추정하여 사업기간 내 사업주체의 현금흐름을 분석할 수 있다. 따라서 사업주체는 효용에 따라 합리적인 위험도 관리 목표값(Target Value)을 선정하고, 사업의 위험도를 고려하여 건설비, 예비비를 결정할 수 있다. 본 연구에서 정립된 모형을 서울외곽순환고속도로(일산-퇴계원 구간)와 대전당진고속도로를 대상으로 사례분석을 수행하였다. 그 결과, 대전당진고속도로의 경우 사업성이 없으며, 서울외곽순환고속도로의 경우, 일부 위험도 발생변수를 합리적으로 관리한다면, 사업성이 충분한 것으로 분석되었다. 본 사례분석은 사업의 위험도를 반영한 사업성분석 방법으로 우리나라 민자유치대상고속도로의 사업성분석의 하나의 지침이 될 것이다.

  • PDF

Determination of optimal flood using total expected cost function (총 기대비용함수를 이용한 최적설계홍수량 결정)

  • Kim, Sang Ug;Choi, Kwang Bae;Seo, Dong Il;Cheon, Young Il
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.287-287
    • /
    • 2022
  • 홍수빈도분석의 실용적 측면의 목적은 특정 재현기간에 대하여 발생 가능한 홍수량을 설계홍수량(design flood)으로 설정함으로써 댐, 제방, 배수시설, 하수관거 등의 치수기능을 가진 치수시설물이 설계홍수량 내에서 홍수로 인한 피해를 발생시키지 않도록 그 규모와 기능을 설계함에 있다. 특히 우리나라의 경우 유량자료의 부족으로 강우빈도분석을 수행하여 재현기간별 확률강우량을 먼저 산정하고 이를 강우-유출모형을 통해 확률홍수량으로 전환한 뒤 하천등급에 따른 재현기간 기준에 따라 설계홍수량을 산정하고 있다. 그러나 이와 같이 결정된 설계홍수량이 특정유역에서 발생될 수 있는 피해규모에 대해 얼마나 적정한 지의 여부를 과학적으로 판단하기 위한 연구는 국내·외에서 찾아보기 어려우며, 이러한 문제를 개선하기 위한 기초 이론을 제공하는 것이 본 연구의 가장 중요한 목표이다. 홍수빈도분석을 통해 산정된 설계홍수량의 적정성 여부를 과학적으로 판단하기 위해 최근에 진행된 해외의 몇몇 연구에서는 총 기대비용함수(total expected cost function)의 개발에 근거한 최적설계홍수량을 활용할 수 있음을 제안한 바 있다. 이 개념은 계획된 설계홍수량 이상에서 발생될 수 있는 피해함수(damage function) 및 기대피해함수(expected damage function)와 비용함수(cost function)가 결정되면, 이로부터 총 비용을 나타내는 총 기대비용함수(total expected cost function)을 도출하고 총 기대비용함수가 최소가 되는 최적설계홍수량(optimal design flood)을 산정하여 이를 계획된 설계홍수량(tentative design flood) 비교함으로써 계획된 설계홍수량의 적정성을 판단하는 과정을 기초이론으로 활용한다. 본 연구에서는 불확실성으로 발생되는 범위를 고려한 최적설계홍수량을 산정하기 위하여 Metropolis-Hastings 알고리즘을 사용하였으며, 자료의 종류에 따른 홍수량의 변화를 분석하기 위하여 년최대계열 및 부분시계열 자료를 각각 적용하였다. 한강유역에서 가평대성, 여주 및 한강대교 수위표 지점에서 측정된 자동관측유량장치에 의한 홍수량 자료를 활용하였으며, 최적설계홍수량이 기존 설계홍수량에 비해 크게 산정됨을 알 수 있었다.

  • PDF

Development of Probability Theory based Dynamic Travel Time Models (확률론적 이론에 기초한 동적 통행시간 모형 정립)

  • Yang, Chul-Su
    • Journal of Korean Society of Transportation
    • /
    • v.29 no.3
    • /
    • pp.83-91
    • /
    • 2011
  • This paper discusses models for estimating dynamic travel times based on probability theory. The dynamic travel time models proposed in the paper are formulated assuming that the travel time of a vehicle depends on the distribution of the traffic stream condition with respect to the location along a road when the subject vehicle enters the starting point of a travel distance or with respect to the time at the starting point of a travel distance. The models also assume that the dynamic traffic flow can be represented as an exponential distribution function among other types of probability density functions.

A Study on the Probability Distribution of Hold-in Time in Spread Spectrum Communication Systems (확산 스펙트럼 통신방식에서의 동기 유지 시간의 확률 분포에 관한 연구)

  • 심용걸;이충웅
    • Journal of the Korean Institute of Telematics and Electronics
    • /
    • v.21 no.2
    • /
    • pp.13-18
    • /
    • 1984
  • The probability distribution of hold-in time and that of the time to reject false lock are investigated for the tracking procedure in spread spectrum communication systems. These are helpful in deciding dwell time and threshold level of correlatoi circuits. The probability distributions are derived by series expansion of generating function for discrete probability function and summation of the coefficients for corresponding terms. And the formulas described by general system parameters are obtained.

  • PDF

Convolution Interpretation of Nonparametric Kernel Density Estimate and Rainfall-Runoff Modeling (비매개변수 핵밀도함수와 강우-유출모델의 합성곱(Convolution)을 이용한 수학적 해석)

  • Lee, Taesam
    • Journal of Korean Society of Disaster and Security
    • /
    • v.8 no.1
    • /
    • pp.15-19
    • /
    • 2015
  • In rainfall-runoff models employed in hydrological applications, runoff amount is estimated through temporal delay of effective precipitation based on a linear system. Its amount is resulted from the linearized ratio by analyzing the convolution multiplier. Furthermore, in case of kernel density estimate (KDE) used in probabilistic analysis, the definition of the kernel comes from the convolution multiplier. Individual data values are smoothed through the kernel to derive KDE. In the current study, the roles of the convolution multiplier for KDE and rainfall-runoff models were revisited and their similarity and dissimilarity were investigated to discover the mathematical applicability of the convolution multiplier.

Context-data Generation Model using Probability functions and Situation Propagation Network (확률 함수와 상황 전파 네트워크를 결합한 상황 데이터 생성 모델)

  • Cheon, Seong-Pyo;Kim, Sung-Shin
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.13 no.7
    • /
    • pp.1444-1452
    • /
    • 2009
  • Probabilistic distribution functions based data generation method is very effective. Probabilistic distribution functions are defined under the assumption that daily routine contexts are mainly depended on a time-based schedule. However, daily life contexts are frequently determined by previous contexts because contexts have consistency and/or sequential flows. In order to refect previous contexts effect, a situation propagation network is proposed in this paper. As proposed situation propagation network make parameters of related probabilistic distribution functions update, generated contexts can be more realistic and natural. Through the simulation study, proposed context-data generation model generated general outworker's data about 11 daily contexts at home. Generated data are evaluated with respect to reduction of ambiguity and confliction using newly defined indexes of ambiguity and confliction of sequential contexts. In conclusion, in case of combining situation propagation network with probabilistic distribution functions, ambiguity and confliction of data can be reduced 6.45% and 4.60% respectively.

Probabilistic Stability and Sensitivity Analysis for a Failed Rock Slope using a Monte Carlo Simulation (몬테카를로시뮬레이션 기법을 이용한 붕괴 암반사면의 확률론적 안정해석 및 민감도 분석)

  • Park, Sung-Wook;Park, Hyuck-Jin
    • The Journal of Engineering Geology
    • /
    • v.20 no.4
    • /
    • pp.437-447
    • /
    • 2010
  • A probabilistic analysis of slope stability is an appropriate solution in dealing with uncertainty in problems related to engineering geology. In this study, a Monte Carlo simulation was performed to evaluate the performance function that is Barton's equation. A large number of randomly generated values were obtained for random variables, and the performance function was calculated repeatedly using randomly generated values. A previous study provided information of slope geometry and the random characteristics of random variables such as JRC and JCS. The present approach was adopted to analyze two failed slopes. The probabilities of failure were evaluated for each slope, and sensitivity analysis was performed to assess the influence of each random variable on the probability of failure. The analysis results were then compared with the results of a deterministic analysis, indicating that the probabilistic analysis yielded reliable results.

The Study on Application of Regional Frequency Analysis using Kernel Density Function (핵밀도 함수를 이용한 지역빈도해석의 적용에 관한 연구)

  • Oh, Tae-Suk;Kim, Jong-Suk;Moon, Young-Il;Yoo, Seung-Yeon
    • Journal of Korea Water Resources Association
    • /
    • v.39 no.10 s.171
    • /
    • pp.891-904
    • /
    • 2006
  • The estimation of the probability precipitation is essential for the design of hydrologic projects. The techniques to calculate the probability precipitation can be determined by the point frequency analysis and the regional frequency analysis. The regional frequency analysis includes index-flood technique and L-moment technique. In the regional frequency analysis, even if the rainfall data passed homogeneity, suitable distributions can be different at each point. However, the regional frequency analysis can supplement the lacking precipitation data. Therefore, the regional frequency analysis has weaknesses compared to parametric point frequency analysis because of suppositions about probability distributions. Therefore, this paper applies kernel density function to precipitation data so that homogeneity is defined. In this paper, The data from 16 rainfall observatories were collected and managed by the Korea Meteorological Administration to achieve the point frequency analysis and the regional frequency analysis. The point frequency analysis applies parametric technique and nonparametric technique, and the regional frequency analysis applies index-flood techniques and L-moment techniques. Also, the probability precipitation was calculated by the regional frequency analysis using variable kernel density function.