• Title/Summary/Keyword: 검증성

Search Result 23,815, Processing Time 0.05 seconds

A Study on the efficient Certificate Revocation Validation Method to multiple CA for the PKI (PKI환경에서의 다중 CA를 위한 효율적인 인증서 폐지 검증 방안에 관한 연구)

  • 김경희;송주석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.907-909
    • /
    • 2002
  • 전자 신뢰 매커니즘 기반의 정보사회에서는 기밀성과 인증의 확보가 필수적이며 이를 위해서는 전자서명 기술을 포함하고 있는 공개키 기반의 인증서관리 체계의 확립이 선결되어야 한다. [3] 인증서의 정당성을 검증하기 위해 검증자는 소유자의 인증서와 그 인증서를 인증한 공인인증기관의 인증서를 검증해야 하고, 이전에 인증서 폐지를 확인해야 하며, 실제 공개키 기반구조 환경에서 인증서의 유효성을 검증하기 위해서는 인증서 자체 검사와 함께 최상위 인증기관(루트CA)으로부터 사용자에게 인증서를 발행한 단말CA까지의 인증트리를 검증해야 한다[3]. 본 연구에서는 효율적인 인증서 폐지정보의 검증을 위해 다중 CA환경에 적합한 NPKI상에 B-Tree데이터구조를 적용하는 인증서 폐지 검증 방안을 제안하고자 한다.

  • PDF

Formal Verification of FBO specification using VIS Verifier (VIS 검증기를 이용한 FBD 명세의 정형검증)

  • ;Shin, Mo-Bum;You, Jun-Beom;Cha, Sung-Deok
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.427-429
    • /
    • 2005
  • 원자력 발전소의 제어 시스템은 safety-critical 소프트웨어로서 안정성이 중요시되는 시스템이다. 최근 기존의 시스템이 PLC 기반의 디지털 제어장치로 대체되면서 이에 사용되는 소프트웨어의 안정성과 품질을 보장하기 위한 정형검증 기법이 요구되고 있다. 특히 PLC 프로그램의 설계에 사용되는 FBD의 모델체킹을 통한 정형검증에 대한 연구는 미비한 수준이다. VIS 검증기는 위의 요구에 부합하는 도구로서 이를 사용하면 여러 종류의 정형 검증이 가능하다. 본 논문에서는 VIS를 이용한 FBD의 검증을 위해서 FBD를 Verilog로 변환 하는 기법을 제안한다. 제안하는 방법의 효율성을 검증하기 위해서 현재 KNICS 사업단에서 개발중인 APR-1400용 원자로 보호 시스템의 운전정지회로를 예로 사용하였다.

  • PDF

A Study on the list of valid PKI certificate verification system for intranet environments (인트라넷 환경을 위한 PKI 인증서 유효목록 검증 시스템에 관한 연구)

  • Kim, Jong-Kwon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.743-745
    • /
    • 2010
  • 기 구축된 Public Key Infrastructure(이하 PKI) 에서 발급된 디지털인증서를 외부 네트워크와 단절된 인트라넷 환경에서 사용하기 외부 네트워크에 지정된 인증서 검증 서버에 접속할 수가 없기 때문에 인증서 유효성 검증의 문제를 발생시켜 사용이 불가능하다. 이러한 문제점을 해결하기 위해 인트라넷 환경을 위한 인증서유효목록 검증 시스템을 제안한다. 인증서유효목록 검증 시스템은 기존의 PKI 에서 인증서 검증을 위해서 사용하는 Certificate Revocation List (이하 CRL)를 대체하는 Certificate Valid List (이하 CVL)를 사용하여 외부 네트워크와 접속이 단절된 인트라넷 환경에서도 기 구축된 PKI 에서 발급된 디지털 인증서의 유효성을 검증할 수 있다. 인증서유효목록 검증 시스템은 CVL 의 생성을 위한 Certificate Valid List Manager (이하 CVLM)와 주기적인 CVL 발급 및 게시를 위한 Certificate Valid List Issuer (이하 CVLI), 응용서비스에서 사용하는 User Agent (이하 UA) 를 포함한다.

Explanation-based Data Mining in Data Warehouse (데이타 웨어하우스 환경에서의 설명기반 데이타 마이닝)

  • 김현수;이창호
    • Proceedings of the Korea Database Society Conference
    • /
    • 1999.06a
    • /
    • pp.115-123
    • /
    • 1999
  • 산업계 전반에 걸친 오랜 정보시스템 운용의 결과로 대용량의 데이타들이 축적되고 있다. 이러한 데이타로부터 유용한 지식을 추출하기 위해 여러 가지 데이타 마이닝 기법들이 연구되어왔다. 특히 데이타 웨어하우스의 등장은 이러한 데이타 마이닝에 있어 필요한 데이타 제공 환경을 제공해 주고 있다. 그러나 전문가의 적절한 판단과 해석을 거치지 않은 데이타 마이닝의 결과는 당연한 사실이거나, 사실과 다른 가짜이거나 또는 관련성이 없는(trivial, spurious and irrelevant) 내용만 무수히 쏟아낼 수 있다. 그러므로 데이타 마이닝의 결과가 비록 통계적 유의성을 가진다 하더라고 그 정당성과 유용성에 대한 검증과정과 방법론의 정립이 필요하다. 데이타 마이닝의 가장 어려운 점은 귀납적 오류를 없애기 위해 사람이 직접 그 결과를 해석하고 판단하며 아울러 새로운 탐색 방향을 제시해야 한다는 것이다. 본 논문의 목적은 이러한 데이타 마이닝에서 추출된 결과를 검증하고 아울러 새로운 지식 탐색 방향을 제시하는 방법론을 정립하는데 있다. 본 논문에서는 데이타 마이닝 기법 중 연관규칙탐사로 얻어진 결과를 설명가능성 여부의 판단을 통해 검증하는 기법을 제안하며, 이를 통해 얻어진 검증된 지식을 토대로 일반화를 통한 새로운 가설을 생성하여 데이타 웨어하우스로부터 연관규칙을 검증하는 일련의 아키텍쳐(architecture)를 제시하고자 한다. 먼저 데이타 마이닝 결과에 대한 설명의 필요성을 제시하고, 데이타 웨어하우스와 데이타 마이닝 기법들에 대한 간략한 설명과 연관규칙탐사에 대한 정의 및 방법을 보이고, 대상 영역에 대한 데이타 웨어하우스의 스키마를 보였다. 다음으로 도메인 지식(domain knowledge)과 연관규칙탐사를 통해 얻어진 결과를 표현하기 위한 지식표현 방법으로 Relational predicate Logic을 제안하였다. 연관규칙탐사로 얻어진 결과를 설명하기 위한 방법으로는 연관규칙탐사로 얻어진 연관규칙에 대해 Relational Predicate Logic으로 표현된 도메인 지식으로서 설명됨을 보이게 한다. 또한 이러한 설명(explanation)을 토대로 검증된 지식을 일반화하여 새로운 가설을 연역적으로 생성하고 이를 연관규칙탐사론 통해 검증한 후 새로운 지식을 얻는 반복적인 Explanation-based Data Mining Architecture를 제시하였다. 본 연구의 의의로는 데이타 마이닝을 통한 귀납적 지식생성에 있어 귀납적 오류의 발생을 고메인 지식을 통해 설명가능 함을 보임으로 검증하고 아울러 이러한 설명을 통해 연역적으로 새로운 가설지식을 생성시켜 이를 가설검증방식으로 검증함으로써 귀납적 접근과 연역적 접근의 통합 데이타 마이닝 접근을 제시하였다는데 있다.

  • PDF

Hardware/Software Co-verification with Integrated Verification (집적검증 기법을 채용한 하드웨어/소프트웨어 동시검증)

  • Lee, Young-Soo;Yang, Se-Yang
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.8 no.3
    • /
    • pp.261-267
    • /
    • 2002
  • In SOC(System On a Chip) designs, reducing time and cast for design verification is the most critical to improve the design productivity. this is mainly because the designs require co-verifying HW together with SW, which results in the increase of verification complexity drastically. In this paper, to cope with the verification crisis in SOC designs, we propose a new verification methodology, so called integrated co-verification, which lightly combine both co-simulation and co-emulation in unified and seamless way. We have applied our integrated co-verification to ARM/AMBA platform-based co-verification environment with a commercial co-verification tool, Seamless CVE, and a physical prototyping board. The experiments has shown clear advantage of the proposed technique over conventional ones.

Study on the validation methods of calibration considering correlations (상관관계를 반영한 신용등급 계량화 검정기법 연구)

  • Kim, Enn-Na;Ha, Jeong-Cheol
    • Journal of the Korean Data and Information Science Society
    • /
    • v.21 no.3
    • /
    • pp.407-417
    • /
    • 2010
  • In Basel II compliance, internal rating systems are allowed for banks to enhance the self control and the validation of the system are getting more important. The validation methods are composed of qualitative test and quantitative test, three basic standards of which are discriminatory power, stability and calibration. The aim of this article is to review the quantitative tests for calibration and find a new method for it. These methods for discrimination between forecasted PD and observed PD include binomial test, chi square test, Brier score, traffic lights approach, normal test and extended traffic lights approach. We introduce a modified extended traffic lights approach considering asset correlations.

A Study on VaR Stability for Operational Risk Management (운영리스크 VaR 추정값의 안정성검증 방법 연구)

  • Kim, Hyun-Joong;Kim, Woo-Hwan;Lee, Sang-Cheol;Im, Jong-Ho;Cho, Sang-Hee;Kim, Ah-Hyoun
    • Communications for Statistical Applications and Methods
    • /
    • v.15 no.5
    • /
    • pp.697-708
    • /
    • 2008
  • Operational risk is defined as the risk of loss resulting from inadequate or failed internal processes, people and systems, or external events. The advanced measurement approach proposed by Basel committee uses loss distribution approach(LDA) which quantifies operational loss based on bank's own historical data and measurement system. LDA involves two distribution fittings(frequency and severity) and then generates aggregate loss distribution by employing mathematical convolution. An objective validation for the operational risk measurement is essential because the operational risk measurement allows flexibility and subjective judgement to calculate regulatory capital. However, the methodology to verify the soundness of the operational risk measurement was not fully developed because the internal operational loss data had been extremely sparse and the modeling of extreme tail was very difficult. In this paper, we propose a methodology for the validation of operational risk measurement based on bootstrap confidence intervals of operational VaR(value at risk). We derived two methods to generate confidence intervals of operational VaR.

Platform of ICT-based environmental monitoring sensor data for verifying the reliability (ICT 기반 환경 모니터링 센서 데이터의 신뢰성 검증을 위한 플랫폼)

  • Chae, Minah;Cho, Jae Hyuk
    • Journal of Platform Technology
    • /
    • v.9 no.1
    • /
    • pp.23-31
    • /
    • 2021
  • In recent years, in the domestic industry, personal damage has occurred due to sensor malfunction and the emission of harmful gases. But there is a limit to the reliability verification of sensor data because the evaluation of environmental sensors is focused on durability and risk tests. This platform designed a sensor board that measures 10 major substances and a performance verification system for each sensor. In addition, the data collected by the sensor board was transferred to the server for data reliability evaluation and verification using LoRa communication, and a prototype of the sensor data platform was produced to monitor the transferred data. And the collected data is analyzed and predicted by using machine learning techniques.

Implementation and Interoperability Test for the IEEE 802.1Qay PBB-TE System (IEEE 802.1Qay PBB-TE 표준 시스템 구현과 상호 운용성 검증)

  • Kim, Hyun-Pil;Moon, Sang-Won;Choi, Jin-Seek
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.36 no.12B
    • /
    • pp.1636-1646
    • /
    • 2011
  • In this paper, we implement IEEE 802.1Qay PBB-TE system and verify interoperability with the commercial PBB-TE product. In order to verify interoperability, we implement the standard protocol as well as the system integrating functions including system kernel control functions. Through interoperability tests with the commercial system, we verify the implemented protocol to perform PBB-TE TESI and ESP configurations, and protection switching as well as monitoring the results.

For the establishment of fine dust collection, analysis, and prediction modeling A Study on the Location Selection and Algorithm Conformance Verification Method (미세먼지 수집·분석·예측 Modeling 구축을 위한 위치선정 및 알고리즘 적합성 검증 방안 연구)

  • Jung, Jong Jin;Sim, Heung Sup
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.373-376
    • /
    • 2022
  • 미세먼지 수집을 위하여 필요한 위치 선정 방안과 위치 선정시 중요한 바람길분석, 수요조사, 유동인구, 교통량 등의 중요 기준을 반영하여 최종 선정하여야 하며, 이에 따라 설치된 측정기로부터 데이터 수집을 위해 지역적, 환경적, 지형적 요소를 감안하여 수집 항목을 결정하여야 한다. 데이터 수집시 실시간 또는 배치(Batch)로 할 것인지 여부를 결정하여야 하며, 이 보고서에서는 실시간으로 데이터 수집하는 경우를 설명하였다. 데이터 수집시 정확도를 높이기 위해 결측값, 이상값인 전처리 단계를 거쳐서 분석과 Modeling 구축을 통하여 정확도가 높은 알고리즘을 선정하여야한다. 정확도가 높은 알고리즘은 검증용 데이터 셋으로 적합성을 검증하여, 측정기 설치 위치의 적합성, 데이터 수집의 적합성, Modeling 구축 및 평가가 적합함을 지표로서 제시하여 적합성 검증을 하고자 한다.

  • PDF