• Title/Summary/Keyword: 통계적 기술방법

Search Result 599, Processing Time 0.026 seconds

Time-varient Slope Stability Model for Prediction of Landslide Occurrence (산사태 발생 예측을 위한 시변 사면안정해석 모형)

  • An, Hyunuk
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2016.05a
    • /
    • pp.33-33
    • /
    • 2016
  • 산사태 발생 예측은 재해를 예방하고 대처하기 위한 가장 근본적이며 효과적인 방법이나, 과학기술의 발전과 많은 노력에도 불구하고 아직 산사태의 발생 장소와 시기를 예측하는 것은 매우 어려운 일이다. 산사태 발생 예측 기법은 크게 경험론적 지수기법, 통계적 해석기법, 물리적 해석 기법으로 나뉠 수 있다. 이 세 방법은 각기 장단점이 있으나 일반적으로 후자로 갈수록 많은 데이터가 요구되고, 해석에 시간이 필요하며, 보다 신뢰할만한 결과를 도출할 수 있다. 경험론적 지수 기법은 국내에서 실무적으로 널리 활용되고 있으며, 통계적 해석기법에 관한 연구도 수행된 바 있다. 하지만 이 두 방법론은 일정량 또는 일정강도 이상의 강우 발생 시 산사태의 발생 위험도를 공간적으로 예측할 수 있으나, 산사태의 발생 시점과 연속적인 강우량 또는 강우강도의 관계를 정량적으로 분석하기 힘든 한계가 있어 최근에는 이러한 한계를 극복하기 위해 최근 무한사면안정 모형과 토양수분침투 모형을 결합한 시변 사면안정모형들이 활용되기 시작하고 있다. 대표적으로는 TRIGRS가 있으며, 이 모형에서는 선형화한 1차원 Richards 방정식의 해석해를 활용하여 토양수분량을 계산한 후 이 정보를 무한사면안정모형에 반영하여 시변적인 사면안정도를 구하고 있다. 하지만 Richards 방정식을 선형화하기 위해서 제한된 토양수분-압력 관계식이 사용되며, GUI가 제공되지 않아 전처리 및 후처리가 번거로운 한계가 있다. 본 연구에서는 이러한 한계를 개선하기 위해 3차원 Richards방정식을 수치적으로 계산하여 보다 다양한 토양수분-압력 모형과 초기조건을 반영할 수 있게 하였다. 또한 GUI를 지원하여 사용자가 보다 손쉽게 해석모형을 사용할 수 있도록 하였다.

  • PDF

The Validity Test of Statistical Matching Simulation Using the Data of Korea Venture Firms and Korea Innovation Survey (벤처기업정밀실태조사와 한국기업혁신조사 데이터를 활용한 통계적 매칭의 타당성 검증)

  • An, Kyungmin;Lee, Young-Chan
    • Knowledge Management Research
    • /
    • v.24 no.1
    • /
    • pp.245-271
    • /
    • 2023
  • The change to the data economy requires a new analysis beyond ordinary research in the management field. Data matching refers to a technique or processing method that combines data sets collected from different samples with the same population. In this study, statistical matching was performed using random hotdeck and Mahalanobis distance functions using 2020 Survey of Korea Venture Firms and 2020 Korea Innovation Survey datas. Among the variables used for statistical matching simulation, the industry and the number of workers were set to be completely consistent, and region, business power, listed market, and sales were set as common variables. Simulation verification was confirmed by mean test and kernel density. As a result of the analysis, it was confirmed that statistical matching was appropriate because there was a difference in the average test, but a similar pattern was shown in the kernel density. This result attempted to expand the spectrum of the research method by experimenting with a data matching research methodology that has not been sufficiently attempted in the management field, and suggests implications in terms of data utilization and diversity.

The Wage Distribution Structure of Korean Manufacturing Industry (한국 제조업의 임금분포구조)

  • Chung, Kang-Soo;Kim, Bum-Sik;Lee, Cheol-Won
    • Journal of Labour Economics
    • /
    • v.29 no.2
    • /
    • pp.67-116
    • /
    • 2006
  • This study directly analyzes the wage distributions rather than indirectly looking at a few of their moments. It also investigates wage distributions using various descriptive and semi-parametric methods. The wage distributions of Korean manufacturing industries can in general be represented by three distinct forms, underdeveloped, advanced and the medium of the two. The discrepancies in these distribution forms are explained by differences in the labor-type distributions and their weights in the composition of wage distribution forms, and further clarified through various descriptive statistics based on them. However, the descriptive statistical analysis has a limit in that it shows mixed outcomes of different categoric variables. Then, this problem is resolved by applying a semi-parametric estimation of hazard function and the marginal effect evaluations of variable changes on estimated distributions not on the function. As a result of this marginal analysis, the common features and differences of categoric variables and their intensities of effects on distributions are revealed.

  • PDF

A Comparison of the Independent Verification Methods for the Results of Leksell GammaPlan for Gamma Knife Predecessor with the Hemispherical Collimators (반구형 시준기를 가진 감마나이프에 대한 렉셀감마플랜 결과물의 독립적인 검증방법들의 비교)

  • Hur, Beong Ik
    • Journal of the Korean Society of Radiology
    • /
    • v.10 no.7
    • /
    • pp.521-529
    • /
    • 2016
  • Since Gamma Knife(R) radiosurgery(GKRS) is based on a single-fraction high dose treatment strategy, independent verification for the results of Leksell GammaPlan(R) (LGP) is an important procedure in assuring patient safety and minimizing the risk of treatment errors. Several verification methods have been developed and reported previously. Thus these methods were tested statistically and tried on Leksell Gamma Knife(LGK) target treatments through the embodiment of the previously proposed algorithms(PPA). The purpose of this study was to apply and evaluate the accuracy of verification methods for LGK target treatments using PPA. In the study 10 patients with intracranial lesion treated by GKRS were included. We compared the data from PPA and LGP in terms of maximum dose, arbitrary point dose, and treatment time at the isocenter locations. All data were analyzed by Paired t-test, which is statistical method used to compare two different measurement techniques. No statistical significance in maximal dose at 10 cases was observed between PPA and LGP. Differences in average maximal dose ranged from -0.53 Gy to 3.71 Gy. The arbitrary point dose calculated by PPA and LGP was not statistically significant too. But we found out the statistical difference with p=0.021 between TMR and LGP for treatment time at the isocenter locations. PPA can be incorporated as part of a routine quality assurance(QA) procedure to minimize the chance of a wrong overdose. Statistical analyses demonstrated that PPA was in excellent agreement with LGP when considering the maximal dose and the arbitrary point dose for the best plan of GKRS. Due to the easy applicability we hope PPA can be widely used.

A Study on the Optimal Distribution toss Management Using toss factor in Power Distribution Systems (분산형전원이 도입된 배전계통의 손실산정기법에 관한 연구)

  • Rho Dae-Seok
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.6 no.3
    • /
    • pp.231-240
    • /
    • 2005
  • Recently, the needs and concerns for the power loss are increasing according to the energy conservation at the level of the national policies and power utilities's business strategies. Especially, the issue of the power loss is the main factor for the determining the electric pricing rates in the circumstances of the deregulation of electrical industry. However, because of the lacking of management for power loss load factors (LLF) it is difficult to make a calculation for the power loss and to make a decision for the electric rates. And loss factor (k-factor) in korea, which is a most important factor for calculation of the distribution power loss, has been used as a fixed value of 0.32 since the fiscal year 1973, There(ore, this study presents the statistical calculation methods of the loss factors classified by load types and seasons by using the practical data of 65 primary feeders which are selected by proper procedures. Based on the above the algorithms and methods, the optimal method of the distribution loss management classified by facilities such as primary feeders, distribution transformers and secondary feeders is presented. The simulation results show the effectiveness and usefulness of the proposed methods.

  • PDF

통계 데이타베이스의 보호에 관한 조사 연구

  • Kim, Chul
    • Review of KIISC
    • /
    • v.4 no.1
    • /
    • pp.44-52
    • /
    • 1994
  • 정보화 사회에서는 가계, 기업, 정보 등의 정보 활동의 주체들이 가진 정보자산은 데이타 베이스(이하DB)와 소프트웨어(S/W)로 대변할 수 있으며, 이중 DB는 정보화 사회의 기반시설의 하나라고 볼 수 있다. 특별히 통계DB는 각 주체들에게는 필수적인 정보를 갖고 있다. 금융자산의 정보, 국방에 관련된 병력, 장비, 군수물자등의 정보, 회계정보 뿐 아니라 인구센서스, 경제계획수립 등등의 다양한 분야에 이 통계 DB는 사용되고 있다. 이러한 통계DB는 기존의DB에서의 데이타의 저장, 관리, 추출 기능외에 통계적인 데이타의 분석기능이 요구되고 있다. 통계 처리를 위한 데이타베이스관리 시스템(DBMS, database management system)은 주로 기존의 DBMS 에 통계처리를 위한 기능을 추가하거나 통계를 위한 DB를 따로 구축하는 방법을 사용하고 있다. 따라서 일반적인 DB 보호 기술과 더불어 통계 의 환경을 이해하는 보호 기술이 요구되고 있다. 일반적으로 DB 를 보호하는 방법으로는 물리적인 보안(physical security)과 운영체계 보안(operating system security) 이 있으며, 이들과 함께 데이타 암호화(data encryption)의 방법을 사용하고 있다. DB 의 보안 방법에 관한 연구 중 George I. Davida 등에 의한 방법은 중국인의 나머지 정리(chinese remainder thorem)를 사용하는 암호화 알고리즘을 이용하여 레코드(record) 단위의 암호화를 하며, Khamis A. Omar등에 의한 방법은 읽기, 쓰기, 갱신의 3단계의 사용자 등급을 부여하여 DB 접근의 제약을 가하는 기능을 갖고 있다. 본고에서는 특히 그 중요성이 더해가고 있는 통계 의 일반적인 개념을 살펴보며, 특성 지향형 질의 모델(characteristic-specified query model)의 보호기술을 살펴본다. 특별히 본고는 통계 DB의 보호에 대한 일반적인 조사 연구로서 잘 알려진 사실들을 많은 참고 문헌과 더불어 소개하는 내용으로 통계 DB의 보호에 관한 새로운 연구 결과는 아니다.

  • PDF

Shape From Focus Algorithm with Optimization of Focus Measure for Cell Image (초점 연산자의 최적화를 통한 세포영상의 삼차원 형상 복원 알고리즘)

  • Lee, Ik-Hyun;Choi, Tae-Sun
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.3 no.3
    • /
    • pp.8-13
    • /
    • 2010
  • Shape form focus (SFF) is a technique that reconstructs 3D shape of an object using image focus. Although many SFF methods have been proposed, there are still notable inaccuracy effects due to noise and non-optimization of image characteristics. In this paper, we propose a noise filter technique for noise reduction and genetic algorithm (GA) for focus measure optimization. The proposed method is analyzed with a statistical criteria such as Root Mean Square Error (RMSE) and correlation.

  • PDF

An Image Processing Method for Aligning the Positions of Semiconductor Package using Principal Component Analysis (주성분분석법을 이용한 반도체패키지의 위치정렬 영상처리기법)

  • Kim, Hak-Man
    • Proceedings of the KAIS Fall Conference
    • /
    • 2009.12a
    • /
    • pp.850-853
    • /
    • 2009
  • 반도체 조립공정에서 사용되는 Pick and Placement장비는 반도체패키지를 컴퓨터 비젼을 이용하여 위치 정렬하고 Placement Tray에 적재하는 장비로서 고속,고정밀도가 요구된다. 다변량 통계적 분석방법인 주성분 분석법은 주어진 데이터에서 특징이 되는 일정한 패턴을 찾는 방법으로 영상의 차원감소를 위해 최근 많이 사용되어지고 있다. 본 논문에서는 반도체패키지의 기하학적 형태를 이용하여 위치정렬을 하도록 한 후 성능을 검증하도록 하였다. 패키지 원영상에서 밝기값의 차이에 따른 윤곽선을 인식한 후, 각 위치값들을 주성분 분석법을 이용해 직선을 추출한 방법으로 위치정렬한 결과 신뢰할만한 위치정렬 성능을 보였다.

  • PDF

Stereo Image Compression using Wavelet Transform (웨이브렛 변환을 이용한 스테레오 이미지 압축)

  • 최정구;강민숙;조동섭
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1998.03a
    • /
    • pp.149-152
    • /
    • 1998
  • 정보통신 기술이 급격히 발달함에 따라 영상처리 및 압축 기술에 대한 중요성이 대두되고 있다. 현재 정지 압축 영상 표준인 JPEG과 동영상 압축 표준인 MPEG에서는 통계적 특성에 기반한 DCT 방법을 이용하여 압축을 수행하고 있다. 최근에는 웨이브렛 변환을 이용한 영상신호 처리 및 압축에 관한 연구가 활발히 이루어지고 있는데, 이는 기존의 DCT 방법과는 달리 속도와 압축률이 뛰어나며 블록화 현상(Blocking Effect)이 발생하지 않기 때문이다. 또한 웨이브렛 자체가 함수이고 이러한 함수에 다른 스케일과 해상도를 적용하는것이므로, 영상을 확대하거나 축소하더라도 이미지에 손상을 주지 않고 복원할 수 있다. 스테레오 이미지는 사람의 시각에서 물체를 보는 것처럼, 카메라에서 같은 장면을 약간의 차이를 두어 찍은 것이다. 따라서 오른쪽과 왼쪽의 두 이미지로 나누어지게 되는데, 이 두 이미지 사이에서 공통 부분이 많다는 특징을 가지게 된다. 따라서 두 이미지의 공통 부분을 찾아 내고, 이를 이용하여 압축을 할 수 있다면 압축률을 높일 수 있다. 본 연구에서는 웨이브렛 변환을 이용하여 스테레오 이미지에서의 공통 부분을 찾고 영상을 효율 岵막\ulcorner 압축하는 방법에 대하여 연구한다.

  • PDF

A Study on the Selection and Evaluation of Information Resources(2) : Expert System (정보자료(情報資料)의 선택과 평가(評價)에 관한 이론(理論)과 사례 연구(2) : 전문가(專門家) 시스템을 중심으로)

  • Choi, Won-Tae
    • Journal of Information Management
    • /
    • v.25 no.3
    • /
    • pp.1-27
    • /
    • 1994
  • This study intends to discuss the theories and case studies related to the selection and evaluation of information resources. The studies for the selection and evaluation of information resources can be divided into as follows : statistical methods, cost-effectiveness methods and expert system methods. Auther tried to discuss problems and prospects of the theoretical backgrounds and applications of expert system for the selection and evaluation of information resources.

  • PDF