• 제목/요약/키워드: Probabilistic modeling

검색결과 230건 처리시간 0.025초

확률론적 모델을 이용한 산사태 취약성 지도 분석: 한국 사천면과 주문진읍을 중심으로 (Landslide Susceptibility Apping and Comparison Using Probabilistic Models: A Case Study of Sacheon, Jumunzin Area, Korea)

  • 박성재;;이창욱
    • 대한원격탐사학회지
    • /
    • 제34권5호
    • /
    • pp.721-738
    • /
    • 2018
  • 이 연구의 목적은 확률모델의 2가지 방법인 Frequency Ratio(FR), Evidential Belief Functions(EBF) 모델을 사용하여 산사태 취약성을 작성하고 강릉시 사천면과 주문진읍에서의 결과 비교를 통해 각 지역에 적합한 모델을 선정하는 것이다. 사천면에서 762개, 주문진읍에서 548개의 산사태 위치를 항공 사진의 해석을 기반으로 작성되었다. 각각의 산사태 지점 중 절반을 모델링을 위해 무작위로 선택하였고 남은 산사태 지점은 검증 목적으로 사용하였다. 지형 요소, 수문 요소, 산림입지토양도(1:5,000), 임상도(1:5,000), 지질도(1:25,000)와 같은 5가지 범주로 분류된 20가지의 산사태 유발 요소가 연구에서 산사태 취약성 작성을 위해 고려되었다. 산사태 발생과 산사태 유발 요소 사이의 관계는 FR, EBF 모델을 사용하여 분석되었다. 그 후, 2 가지 모델을 AUC(curve under area) 방법을 사용하여 검증하였다. 검증 결과에 따르면 주문진읍에서 FR모델(AUC = 81.2%)이 EBF 모델(AUC = 78.9%)에 비해 정확도가 높았다. 사천면 지역에서는 EBF 모델(AUC = 83.6%)이 FR모델(AUC = 81.6%)보다 정확도가 높게 나타났다. 검증 결과 FR 모델과 EBF 모델은 정확도 80% 내외로 높은 정확도를 가지고 있음을 나타낸다.

수문해석과정의 불확실성을 고려한 수문학적 댐 위험도 해석 기법 개선 (Improvement of Hydrologic Dam Risk Analysis Model Considering Uncertainty of Hydrologic Analysis Process)

  • 나봉길;김진영;권현한;임정열
    • 한국수자원학회논문집
    • /
    • 제47권10호
    • /
    • pp.853-865
    • /
    • 2014
  • 수문학적 댐 위험도 분석은 복잡한 수문분석과 연계되어 있으며, 기본적으로 수문분석 과정과 모형에 사용되는 입력자료에 대한 불확실성을 평가하는 과정이 필요하다. 그러나 체계적인 불확실성 분석 과정을 통한 댐 위험도 분석 절차에 대한 연구는 상대적으로 적은편이다. 이러한 점에서 본 연구에서는 기존 연구에 대해서 2가지 주요 개선점을 도출하여 댐 위험도 분석에 활용하였다. 첫째, 강우 분석시 매개변수의 불확실성 분석이 가능한 Bayesian 모형 기반의 지역빈도해석 절차를 수립하였다. 둘째, 강우-유출 모형 매개변수의 사후분포를 정량적으로 추정하기 위하여 Bayesian 모형과 연계한 HEC-1모형을도입하였다. 도출된 유입 시나리오를 댐의 수위로 환산하기 위하여 기존 저수지 운영기준에 근거하여 저수지 추적을 수행하였으며, 최종적으로 실행함수를 통하여 수문학적 위험도를 추정하였다. 실제 댐에 대해서 모형의 적합성을 평가하였으며, 초기수위 가정에 따른 수문학적 위험도에 민감도를 평가하였다.

초기 변동수위를 고려한 제방 월류에 따른 안정성 분석 (Stability Analysis of Embankment Overtopping by Initial Fluctuating Water Level)

  • 김진영;김태헌;김유성;김재홍
    • 한국지반공학회논문집
    • /
    • 제31권8호
    • /
    • pp.51-62
    • /
    • 2015
  • 지반공학적으로 제방(또는 댐) 월류에 대한 근거를 제시하기 어렵다. 수문학적인 안정성 평가에서 댐의 초기수위(만수위)를 고정시키고 강우량을 계산하기 때문에 월류 가능성은 매우 희박하다. 그러나 Copula 함수를 사용하여 초기수위가 고정된 댐의 만수위가 아닌 변동성 있는 확률수위를 적용해서 국내 40년간의 빈도를 고려할 때, 월류 가능성을 확인할 수 있었다. 수문학적 댐의 위험성 분석은 다양한 불확실성 인자 중 댐 초기수위에 대한 모의기법 개발이 필요한 복잡한 수문학적 해석을 요구한다. 본 연구에서는 기존 댐 위험도 분석 시 초기수위는 상시만수위 또는 홍수기 제한수위로 가정하지만, 이러한 보수적인 가정에 의한 연구는 기상변동성 및 기후변화의 영향을 고려하지 못하며, 댐의 월류확률 및 이에 따른 붕괴확률을 추정하는데 있어서 지반공학적인 접근이 필요하다. Copula 함수를 이용하여 댐 특성에 맞는 초기수위를 결정하였으며, HEC-5 모형을 활용하여 강우-유출 모형 매개변수의 사후분포를 정량적으로 추정하여 댐 월류확률을 산정하였다. 지반공학적인 측면에서 댐 안정성 해석은 상류사면(upstream)의 수위급강하(drawdown)에 대한 안전율과 하류사면(downstream) 월류상태에서의 불안정성을 비교하여 지반공학적 위험도를 비교 분석하였다.

내장형 소프트웨어 마르코프 체인 모델과 단위 테스트를 이용한 내장형 소프트웨어 신뢰도 분석 도구의 설계와 구현 (A Design and Implementation of Reliability Analyzer for Embedded Software using Markov Chain Model and Unit Testing)

  • 곽동규;유재우;최재영
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권12호
    • /
    • pp.1-10
    • /
    • 2011
  • 내장형 시스템의요구사항이 복잡해짐에 따라 내장형 소프트웨어의 신뢰도를분석하기 위한 도구가 요구되고있다. 소프트웨어의 신뢰도를 분석하는 방법으로는 확률적 모델링을 이용하는데, 다수의 디바이스를 제어하는 내장형 소프트웨어에 적용하기 위해서는 내장형 소프트웨어에 특성화 시킬 필요가 있다. 또한, 기존의 신뢰도 분석 도구는 각 상태간의 전이 확률을 다른 방법으로 측정해야 하고, 한 번 작성한 모델에 대해 재사용을 고려하고 있지 않는다. 본 논문은 내장형 소프트웨어의 신뢰도를 분석하기 위해 내장형 소프트웨어 마르코프 체인 모델과 단위 테스팅 도구를 이용한 신뢰도 분석 도구를 제안한다. 내장형 소프트웨어 마르코프 체인 모델은 신뢰도 분석 방법으로 많이 사용되고 있는 마르코프 체인 모델을 내장형 소프트웨어에 특성화 시킨 모델이다. 그리고 단위 테스팅 도구는 내장형 소프트웨어의 개발환경에 적합한 호스트/타겟 구조를 가지고 있다. 제안하는 도구는 신뢰도 분석을 위해 단위간 전이 확률을 단위 테스트 결과로부터 자동으로 측정하여 기존의 도구보다 용이하게 신뢰도를 분석할 수 있다. 그리고 소프트웨어 모델을 XML 기반의 문서로 표현하여 단위 테스팅 도구가 업데이트 시킨 테스트 결과를 바로 적용할수 있고, 웹 기반의 인터페이스와 SVN 저장소를 이용하여 다수의 개발자가 쉽게 접근할 수 있는 장점을 갖는다. 본 논문에서는 예제를 이용하여 신뢰도의 분석을 보이고 신뢰도 측정에 유용함을 보인다.

지구물리 자료의 고속 베이지안 역산 (Fast Bayesian Inversion of Geophysical Data)

  • 오석훈;권병두;남재철;이덕기
    • 지구물리
    • /
    • 제3권3호
    • /
    • pp.161-174
    • /
    • 2000
  • 베이지안 역산(Bayesian inversion)은 불충분한 자료를 가지고 지하구조를 추정해야 하는 지구물리자료의 해석에 있어서 안정적이고 신뢰를 줄 수 있는 방법 중의 하나이다. 관측 자료가 측정 과정부터 불확실성을 함유하고 있으며, 역산에 이용되는 이론 자료 또한 모델의 매개변수화에 따른 각종 불확실성을 포함하고 있다. 따라서 지구물리 자료의 역산은 확률적으로 접근하는 것이 가장 바람직하며 베이지안 역산은 이에 대한 처리뿐만 아니라, 추정에 대한 신뢰도와 불확실성에 대한 이론적 근거를 제공한다. 그러나 대부분의 베이지안 역산이 고차원의 적분을 필요로 하므로 몬테 카를로 방법과 같은 대규모의 계산이 요구되는 방법에 의해 사후 확률분포가 구해지는 경우가 많다. 이는 특히 지구물리 자료와 같이 고도의 비선형 자료에 대하여 매우 적합한 접근 방법이기는 하지만, 점차 현장화, 고속화되어가는 자료의 해석 경향에 맞추어 간략하게 사후 확률분포를 근사한 수 있는 기법의 연구 또한 필요하다. 따라서 이 연구에서는 관측자료와 사전 확률분포가 정규분포에 의해 근사 될 수 있는 지구물리자료에 대한 베이지안 역산에 대해 논의 하고자 한다. 사전 확률분포의 작성을 위해 지구통계학적 기법이 이용되었으며, 관측자료의 통계적 불화실성을 추정하기 위해 교차 검사(cross-validation) 방법을 이용하여 공분산(covariance)을 유도하고 그것에 의한 우도 함수(likelihood function)를 작성하였다. 베이지안 해석을 위해 두 확률분포를 곱하여 근사적인 사후 확률분포를 얻을 수 있었으며, 이에 대해 최적화(optimization) 기법을 이용하여 최대 사후 확률(Maximum a Posterior)을 따르는 지하 구조를 얻을 수 있었다. 또한 사후 확률 분포의 공분산 항을 이용하여 지하 비저항 구조를 시뮬레이션 하여 불확실성분석을 수행하였다.

  • PDF

복수 PSD와 비콘을 이용한 칼만필터 기반 상대항법에 대한 연구 (Relative Navigation Study Using Multiple PSD Sensor and Beacon Module Based on Kalman Filter)

  • 송정규;정준호;양승원;김승균;석진영
    • 한국항공우주학회지
    • /
    • 제46권3호
    • /
    • pp.219-229
    • /
    • 2018
  • 본 논문에서는 복수 Position Sensitive Detector(PSD) 센서와 IR Beacon Module(적외선 비콘 모듈)을 이용하여 우주비행체의 랑데부/도킹/군집 운용과 같은 근접 운용을 위한 칼만 필터 기반의 상대항법 알고리즘 연구를 수행한다. PSD 센서와 적외선 비콘 모듈은 각각 Target Satellite과 Chaser Satellite에 장착되어 위성의 상대 위치와 상대 자세 정보를 획득하여 위성간 근접운용에 사용한다. 각각의 상대 항법 기법의 성능을 비교 분석하기 위하여 수치 시뮬레이션을 수행한다. 상대항법 알고리즘에 사용된 PSD 센서와 적외선 비콘 모듈의 광학적 모델링과 작동 원리를 기반으로 칼만필터의 측정 모델을 구성한다. 확장 칼만 필터(EKF)와 무향 칼만 필터(UKF)는 우주비행체의 병진 운동 및 회전 운동에 대한 운동학 및 동역학적 특성을 활용하는 측정 융합에 기반을 둔 확률론적 상대항법 기법으로 사용된다. EKF와 UKF, 두 필터의 상대 자세 및 상대 위치 추정 성능을 비교한다. Target Satellite과 Chaser Satellite에 장착되는 PSD 센서와 적외선 비콘 모듈의 개수와 상대항법기법의 변화에 따른 수치 시뮬레이션을 수행하여 성능 변화를 확인하였다.

시뮬레이션을 기반(基盤)으로 하는 영업이윤율(營業利潤率) 추정(推定) 시스템 (Simulation-Based Stochastic Markup Estimation System $(S^2ME)$)

  • 이창용;김률희;임태경;김화중;이동은
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2007년도 추계 학술논문 발표대회
    • /
    • pp.109-113
    • /
    • 2007
  • This paper introduces a system, Simulation based Stochastic Markup Estimation System (S2ME), for estimating optimum markup for a project. The system was designed and implemented to better represent the real world system involved in construction bidding. The findings obtained from the analysis of existing assumptions used in the previous quantitative markup estimation methods were incorporated to improve the accuracy and predictability of the S2ME. The existing methods has four categories of assumption as follows; (1) The number of competitors and who is the competitors are known, (2) A typical competitor, who is fictitious, is assumed for easy computation, (3) the ratio of bid price against cost estimate (B/C) is assumed to follow normal distribution, (4) The deterministic output obtained from the probabilistic equation of existing models is assumed to be acceptable. However, these assumptions compromise the accuracy of prediction. In practice, the bidding patterns of the bidders are randomized in competitive bidding. To complement the lack of accuracy contributed by these assumptions, bidding project was randomly selected from the pool of bidding database in the simulation experiment. The probability to win the bid in the competitive bidding was computed using the profile of the competitors appeared in the selected bidding project record. The expected profit and probability to win the bid was calculated by selecting a bidding record randomly in an iteration of the simulation experiment under the assumption that the bidding pattern retained in historical bidding DB manifest revival. The existing computation, which is handled by means of deterministic procedure, were converted into stochastic model using simulation modeling and analysis technique as follows; (1) estimating the probability distribution functions of competitors' B/C which were obtained from historical bidding DB, (2) analyzing the sensitivity against the increment of markup using normal distribution and actual probability distribution estimated by distribution fitting, (3) estimating the maximum expected profit and optimum markup range. In the case study, the best fitted probability distribution function was estimated using the historical bidding DB retaining the competitors' bidding behavior so that the reliability was improved by estimating the output obtained from simulation experiment.

  • PDF

강제합류 형태를 포함한 확률적 연결로 합류용량 산정 모형 개발 (Model Development Determining Probabilistic Ramp Merge Capacity Including Forced Merge Type)

  • KIM, Sang Gu
    • 대한교통학회지
    • /
    • 제21권3호
    • /
    • pp.107-120
    • /
    • 2003
  • 수십년동안 합류부 교통특성 및 현상을 다루는 많은 연구가 있어 왔지만 합류부 교통류를 평가하는 분석방법론은 그리 많이 개발되지 않았고 특히 합류용량에 대한 연구는 거의 이루어지지 않았었다. 본 연구는 합류부에서 강제합류를 포함한 합류용량을 확률적으로 결정하는 모형 개발을 목적으로 수행되었다. 고속도로 본선 바깥 차로의 시간차두간격 분포를 Erlang 분포로 가정하고 간격수락이론을 이용하여 합류용량 산정 모형식을 개발하였고, 이때 본선 차두간격이 임계간격보다 작은 경우 발생되는 강제합류 형태가 용량 산정식에 반영되었다. 또한. 합류용량 모형식에서 중요한 변수로 사용되는 임계간격을 결정하고자 연결로에서 진입하는 개별차량의 합류 행태를 조사하여 회귀분석을 통한 모형식을 구축하였다. 개발된 용량식을 토대로 합류용량 값들을 도로 및 교통 조건에 따라 제시하였는데 임계간격 크기가 커지고 연결로 진입교통량이 많아질수록 합류용량은 적게 산출되었다. 이러한 합류용량 값의 변화는 기존 HCM 방법에서 제시하고 있는 하나의 고정된 용량 값과는 다른 결과로 해석되고, 변화하는 합류용량 값은 앞으로 연결로 접속부 교통운영에서 고려해야 할 주요한 파라메타라고 생각된다.

김밥에서의 Staphylococcus aureus에 대한 정량적 미생물위해평가 모델 개발 (Quantitative Microbial Risk Assessment Model for Staphylococcus aureus in Kimbab)

  • 박경진;오덕환;하상도;박기환;정명섭;천석조;박종석;우건조;홍종해
    • 한국식품과학회지
    • /
    • 제37권3호
    • /
    • pp.484-491
    • /
    • 2005
  • 정량적 미생물 위해평가(Quantitative microbial risk assessment: QMRA)는 국민건강에 영향을 주는 잠재된 위해를 연구하여 식품내 존재하는 병원성미생물과 관련한 위해를 체계적으로 평가하는 것이다. 본 연구는 깁밥에서의 Staphylococcus aureus에 대한 QMRA 모델을 개발하고 이를 식품위생관리에서 이용할 수 있는 기준을 제시하여, 식품안전 분야에서의 QMRA의 필요성과 활용성을 알리기 위해서 실시하였다. QMRA 모델은 매장에서부터 최종소비에 이르기까지 4 단계로 구성되었으며, 미생물 성장모델과 조사자료 그리고 확률분포가 김밥의 최종소비에서의 S. aureus 수준을 평가하기 위하여 이용되었다. S. aureus에 대한 양-반응모델이 없는 관계로 최종 소비단계에서의 S. aureus의 오염수준을 잠재적인 위해를 결정하는데 이용하였다. 이를 위하여 5 log CFU/g이상을 잠재적 유해수준으로 가정하였으며, 시뮬레이션 결과 최종 소비되는 김밥에서 이 유해수준을 초과할 가능성은 30.7%로 나타났다. 김밥에서의 S. aureus의 오염수준은 평균 2.67 log CFU/g으로 나타났으며, 민감도 분석에서는 매장에서의 김밥 보관온도 및 시간이 가장 중요한 요인으로 결정되었다. 이러한 결과를 종합하여 볼 때 김밥 매장에서는 현실적으로 보존시간 관리가 어렵다고 한다면 보관온도를 $10^{\circ}C$ 이하로 유지하는 것이 가장 중요한 것으로 나타났다. 본 연구에서와 같이 QMRA는 식품 내 존재할 수 있는 잠재적인 위해에 영향을 미치는 인자들에 대한 평가에 이용될 수 있으며 이를 식품위생관리에 직접적으로 활용 가능한 것으로 나타났다.삼의 분석방법별 기준인 ginsenoside -Rg1과 -Re의 함량비($Rg1/Re{\Leq}3.87$)에 부합되었다.도에서 MA 저해 효과는 쑥갓>미나리>참깨의 순으로, 각각 54, 48, 29%를 나타냈다. 참깨는 20, $100{\mu}g/mL$의 농도에서처럼 가장 작은 효과를 보여줬고, 쑥갓은 50% 이상의 항산화 효과를 나타냈다. Aldehyde/Carboxylic acid assay에서는 참깨가 가장 높은 효과를 보여줬지만 Lipid MA asaay에서는 그에 비해 가장 낮은 효과를 나타냈다.안전한 수준인 것으로 판단된다. 보여진다.ificantly more inclusive. As a result of the evolution of new fibers, materials, processes and markets, we assert that a new "ENGINEERING WITH FIBERS" (EwF)(중략)web.cnu.ac.kr/~fabric이다. 제작된 멀티미디어를 실제 수업에 활용한 결과 수강생(32명)의 96.9%가 보조자료로 사용된 멀티미디어 콘텐츠자료가 실험관련 교과목 수업에 효과적이라고 응답하였고, 87.5%가 활용된 멀티미디어 콘텐츠 자료에 만족하며, 75%가 기존의 교과서와 비교하여 더 많이 활용하였다고 응답하였다. 따라서 멀티미디어 콘텐츠를 활용한 교육은 개인차에 따른 개별화 학습을 가능하게 할 뿐만 아니라 능동적인 참여를 유도하여 학습효율을 높일 수 있을 것으로 기대된다.향은 패션마케팅의 정의와 적용범위를 축소시킬 수 있는 위험을 내재한 것으로 보여진다. 그런가 하면, 많이 다루어진 주제라 할지라도 개념이나 용어가 통일되지

사회문제 해결형 기술수요 발굴을 위한 키워드 추출 시스템 제안 (A Proposal of a Keyword Extraction System for Detecting Social Issues)

  • 정다미;김재석;김기남;허종욱;온병원;강미정
    • 지능정보연구
    • /
    • 제19권3호
    • /
    • pp.1-23
    • /
    • 2013
  • 융합 R&D가 추구해야 할 바람직한 방향은 이종 기술 간의 결합에 의한 맹목적인 신기술 창출이 아니라, 당면한 주요 문제를 해결함으로써 사회적 니즈를 충족시킬 수 있는 기술을 개발하는 것이다. 이와 같은 사회문제 해결형 기술 R&D를 촉진하기 위해서는 우선 우리 사회에서 주요 쟁점이 되고 있는 문제들을 선별해야 한다. 그런데 우선적이고 중요한 사회문제를 분별하기 위해 전문가 설문조사나 여론조사 등 기존의 사회과학 방법론을 사용하는 것은 참여자의 선입견이 개입될 수 있고 비용이 많이 소요된다는 한계를 지닌다. 기존의 사회과학 방법론이 지닌 문제점을 보완하기 위하여 본 논문에서는 사회적 이슈를 다루고 있는 대용량의 뉴스기사를 수집하고 통계적인 기법을 통하여 사회문제를 나타내는 키워드를 추출하는 시스템의 개발을 제안한다. 2009년부터 최근까지 3년 동안 10개 주요 언론사에서 생산한 약 백 30만 건의 뉴스기사에서 사회문제를 다루는 기사를 식별하고, 한글 형태소 분석, 확률기반의 토픽 모델링을 통해 사회문제 키워드를 추출한다. 또한 키워드만으로는 정확한 사회문제를 파악하기 쉽지 않기 때문에 사회문제와 연관된 키워드와 문장을 찾아서 연결하는 매칭 알고리즘을 제안하다. 마지막으로 사회문제 키워드 비주얼라이제이션 시스템을 통해 시계열에 따른 사회문제 키워드를 일목요연하게 보여줌으로써 사회문제를 쉽게 파악할 수 있도록 하였다. 특히 본 논문에서는 생성확률모델 기반의 새로운 매칭 알고리즘을 제안한다. 대용량 뉴스기사로부터 Latent Dirichlet Allocation(LDA)와 같은 토픽 모델 방법론을 사용하여 자동으로 토픽 클러스터 세트를 추출할 수 있다. 각 토픽 클러스터는 연관성 있는 단어들과 확률값으로 구성된다. 그리고 도메인 전문가는 토픽 클러스터를 분석하여, 각 토픽 클러스터의 레이블을 결정하게 된다. 이를 테면, 토픽 1 = {(실업, 0.4), (해고, 0.3), (회사, 0.3)}에서 토픽 단어들은 실업문제와 관련있으며, 도메인 전문가는 토픽 1을 실업문제로 레이블링 하게 되고, 이러한 토픽 레이블은 사회문제 키워드로 정의한다. 그러나 이와 같이 자동으로 생성된 사회문제 키워드를 분석하여 현재 우리 사회에서 어떤 문제가 발생하고 있고, 시급히 해결해야 될 문제가 무엇인지를 파악하기란 쉽지 않다. 따라서 제안된 매칭 알고리즘을 사용하여 사회문제 키워드를 요약(summarization)하는 방법론을 제시한다. 우선, 각 뉴스기사를 문단(paragraph) 단위로 세그먼트 하여 뉴스기사 대신에 문단 세트(A set of paragraphs)를 가지게 된다. 매칭 알고리즘은 각 토픽 클러스터에 대한 각 문단의 확률값을 측정하게된다. 이때 토픽 클러스터의 단어들과 확률값을 이용하여 토픽과 문단이 얼마나 연관성이 있는지를 계산하게 된다. 이러한 과정을 통해 각 토픽은 가장 연관성이 있는 문단들을 매칭할 수 있게 된다. 이러한 매칭 프로세스를 통해 사회문제 키워드와 연관된 문단들을 검토함으로써 실제 우리 사회에서 해당 사회문제 키워드와 관련해서 구체적으로 어떤 사건과 이슈가 발생하는 지를 쉽게 파악할 수 있게 된다. 또한 매칭 프로세스와 더불어 사회문제 키워드 가시화를 통해 사회문제 수요를 파악하려는 전문가들은 웹 브라우저를 통해 편리하게 특정 시간에 발생한 사회문제가 무엇이며, 구체적인 내용은 무엇인지를 파악할 수 있으며, 시간 순서에 따른 사회이슈의 변동 추이와 그 원인을 알 수 있게 된다. 개발된 시스템을 통해 최근 3년 동안 국내에서 발생했던 다양한 사회문제들을 파악하였고 개발된 알고리즘에 대한 평가를 수행하였다(본 논문에서 제안한 프로토타입 시스템은 http://dslab.snu.ac.kr/demo.html에서 이용 가능함. 단, 구글크롬, IE8.0 이상 웹 브라우저 사용 권장).