• Title/Summary/Keyword: 데이터 검증

Search Result 7,195, Processing Time 0.037 seconds

Analysis and Elimination of Side Channels during Duplicate Identification in Remote Data Outsourcing (원격 저장소 데이터 아웃소싱에서 발생하는 중복 식별 과정에서의 부채널 분석 및 제거)

  • Koo, Dongyoung
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.27 no.4
    • /
    • pp.981-987
    • /
    • 2017
  • Proliferation of cloud computing services brings about reduction of the maintenance and management costs by allowing data to be outsourced to a dedicated third-party remote storage. At the same time, the majority of storage service providers have adopted a data deduplication technique for efficient utilization of storage resources. When a hash tree is employed for duplicate identification as part of deduplication process, size information of the attested data and partial information about the tree can be deduced from eavesdropping. To mitigate such side channels, in this paper, a new duplicate identification method is presented by exploiting a multi-set hash function.

데이터베이스 테이터의 고장진단 및 복구를 위한 전문가 시스팀

  • Lee, Gil-Haeng;U, Wang-Don;Jo, Ju-Hyeon
    • ETRI Journal
    • /
    • v.14 no.4
    • /
    • pp.148-164
    • /
    • 1992
  • 본 논문에서는 TDX-10 데이터베이스 데이터의 고장을 주기적으로 진단하고 복구할 수 있는 고장진단 전문가 시스팀을 제안하고 구현하였다. 실시간 환경 및 분산구조를 갖는 데이터베이스 관리 시스팀에서 데이터베이스의 효과적인 접근을 위해서 필요한 데이터베이스의 데이터 즉, 디렉토리와 딕셔너리는 매우 중요하며 고장이 발생할 경우 데이터베이스 관리시스팀에 미치는 영향은 치명적이다. 따라서, 실시간 환경을 갖는 데이터베이스 관리 시스팀에서 데이터베이스 데이터에 대한 고장 진단 및 복구는 필수적이라고 할 수 있다. 본 논문에서 제안한 고장진단 전문가 시스팀은 데이터베이스 데이터를 운용중 변하는 부분과 변하지 않는 부분으로 분류하고 미리 주어진 고장진단 규칙에 따라 진단하는 방법이다. 데이터베이스 데이터의 고장진단 데이터, 고장진단 규칙, 고장진단 데이터 생성기, 고장진단 데이터 검증기, 그리고 고장진단기로 구성되어 있다. 고장진단 데이터는 고장진단기가 데이터베이스 데이터를 주기적으로 진단하기 위하여 사용하는 마스터 데이터로서 두개가 존재한다. 고장진단 데이터 생성기는 데이터베이스 데이터의 고장진단을 위한 데이터 구조를 생성하고 데이터베이스로부터 데이터베이스를 데이터를 중복하여 읽어들이는 역할을 한다. 이와 같은 과정은 시스팀이 초기에 동작을 시작하거나 운용중 운용자에 의해서 릴레이션의 추가 및 삭제, 그리고 튜플의 추가등과 같은 사건이 발생할 경우에 이루어진다. 데이터베이스 검증기는 고장진단 데이터 생성기가 중복하여 생성한 데이터에 대해서 데이터베이스 데이터의 제작시의 초기 오류를 검증해냄으로써 데이터베이스 관리 시스팀의 안전한 운용을 가능하게 하며 고장진단기가 데이터베이스 데이터를 주기적으로 진단할 데이터를 탄생시킨다. 마지막으로 고장진단기는 주기적으로 데이터베이스 데이터의 고장을 진단하여 고장이 발생한 데이터를 미리 분류한 규칙에 따라 원래의 데이터로 복구하거나 운용자에게 보고함으로써 고장에 대비하도록 한다. 그리고 데이터베이스 상의 운용자에 의한 변경을 감지하여 고장진단 데이터의 재생성을 지시한다. 본 논문에서 제시하고 구현한 데이터베이스 데이터의 고장진단 및 복구를 위한 전문가 시스팀은 실시간 환경과 고장허용 환경, 분산 구조 그리고 빈번한 접근을 갖는 데이터베이스 관리 시스팀에서 아주 중요한 역할을 할 수 있다.

  • PDF

Calibration and Verification of Detailed Prototypical Apartment Building Energy Models for Estimation of Green Remodeling Feasibility (그린리모델링 효과평가를 위한 표준공동주택 정밀에너지해석모델 보정과 검증)

  • Donghyun Seo
    • Land and Housing Review
    • /
    • v.15 no.2
    • /
    • pp.9-17
    • /
    • 2024
  • The prototypical building energy model is very useful in building energy policies, research, and technology development. A prototypical apartment model for detailed energy analysis was proposed by Seo et al. in 2014, but sufficient verification was not possible due to the lack of reliable measurement data in predicting the model's energy consumption. However, verification is now possible thanks to a recent study that analyzed the Household Energy Panel Survey (HEPS) data that is released annually by the Korea Energy Economics Institute (KEEI) and published apartment complex benchmark data. The data was used to calibrate the prototypical apartment energy model located in the central region and constructed between 1990 and 1999. The calibrated model was used to verify the other apartment building groups with respect to region and year of completion. Meteorological data for five representative cities each in the central and southern regions were used for the simulation. A majority of the 18 groups produced results that satisfied the MBE and cv(RMSE) criteria.

Speaker verification with ECAPA-TDNN trained on new dataset combined with Voxceleb and Korean (Voxceleb과 한국어를 결합한 새로운 데이터셋으로 학습된 ECAPA-TDNN을 활용한 화자 검증)

  • Keumjae Yoon;Soyoung Park
    • The Korean Journal of Applied Statistics
    • /
    • v.37 no.2
    • /
    • pp.209-224
    • /
    • 2024
  • Speaker verification is becoming popular as a method of non-face-to-face identity authentication. It involves determining whether two voice data belong to the same speaker. In cases where the criminal's voice remains at the crime scene, it is vital to establish a speaker verification system that can accurately compare the two voice evidence. In this study, to achieve this, a new speaker verification system was built using a deep learning model for Korean language. High-dimensional voice data with a high variability like background noise made it necessary to use deep learning-based methods for speaker matching. To construct the matching algorithm, the ECAPA-TDNN model, known as the most famous deep learning system for speaker verification, was selected. A large dataset of the voice data, Voxceleb, collected from people of various nationalities without Korean. To study the appropriate form of datasets necessary for learning the Korean language, experiments were carried out to find out how Korean voice data affects the matching performance. The results showed that when comparing models learned only with Voxceleb and models learned with datasets combining Voxceleb and Korean datasets to maximize language and speaker diversity, the performance of learning data, including Korean, is improved for all test sets.

A Query Result Integrity Assurance Scheme Using an Order-preserving Encryption Scheme in the Database Outsourcing Environment (데이터베이스 아웃소싱 환경에서 순서 보존 암호화 기법을 이용한 질의 결과 무결성 검증 기법)

  • Jang, Miyoung;Chang, Jae Woo
    • Journal of KIISE
    • /
    • v.42 no.1
    • /
    • pp.97-106
    • /
    • 2015
  • Recently, research on database encryption for data protection and query result authentication methods has been performed more actively in the database outsourcing environment. Existing database encryption schemes are vulnerable to order matching and counting attack of intruders who have background knowledge of the original database domain. Existing query result integrity auditing methods suffer from the transmission overhead of verification object. To resolve these problems, we propose a group-order preserving encryption index and a query result authentication method based on the encryption index. Our group-order preserving encryption index groups the original data for data encryption and support query processing without data decryption. We generate group ids by using the Hilbert-curve so that we can protect the group information while processing a query. Finally, our periodic function based data grouping and query result authentication scheme can reduce the data size of the query result verification. Through performance evaluation, we show that our method achieves better performance than an existing bucket-based verification scheme, it is 1.6 times faster in terms of query processing time and produces verification data that is 20 times smaller.

Design and Implementation of Automated Twitter Data Collecting System : Focus on Environmental Data (자동화된 트위터 데이터 수집 시스템 설계 및 구현 : 환경 데이터를 중심으로)

  • Kim, Do-Hyung;Koo, Jahwan;Kim, Ung-Mo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.361-364
    • /
    • 2020
  • 소셜 네트워크 서비스의 사용자가 늘어나면서, 소셜 네트워크 서비스상에서 발생하는 빅데이터를 활용한 서비스가 늘어나고 있다. 소셜 네트워크 서비스 데이터는 실시간으로 생성되며, 따라서 데이터 수집 시스템 역시 자동화하여 준 실시간으로 데이터를 수집할 필요가 있다. 본 논문에서는 대표적인 소셜 네트워크 서비스인 트위터의 데이터를 지속적으로 수집하기 위한 자동 수집 시스템을 제안한다. 수집 시스템은 Twitter API 를 활용하는 Python 라이브러리를 통해 내용 및 메타데이터를 수집하며, 수집된 데이터를 재 검증한 뒤 저장한다. 또한 구현된 시스템에 환경 데이터를 주제로 하는 쿼리를 입력하여 실제 트위터 데이터를 수집하며 구현된 시스템을 검증해보았다.

A Study on SIARD Verification as a Preservation Format for Data Set Records (행정정보 데이터세트 보존포맷으로서 SIARD 검증에 관한 연구)

  • Yoon, Sung-Ho;Lee, Jung-eun;Yang, Dongmin
    • Journal of Korean Society of Archives and Records Management
    • /
    • v.21 no.3
    • /
    • pp.99-118
    • /
    • 2021
  • As the importance of data grows because of the advent of the next industrial revolution, foreign countries are pushing for long-term data preservation technology research. On the other hand, in Korea, administrative information data sets have been legislated as records management areas without specific long-term preservation measures. As a response, this study conducted basic, cross-validation tests on the Software Independent Archiving of Relational Database (SIARD), which was proposed as an administrative information data set preservation format in several prior works. First, the underlying verification test focuses on deriving the data, structure, and functionality of the data set that SIARD can preserve. The second cross-validation test aimed at verifying the interoperability of SIARD independent of the DBMS class. In addition, two verification tests have confirmed the SIARD feature delivery range. Consequently, the differences between the feature types specified in the SIARD 2.0 standard and those provided by the actual SIARD Suite have been derived. Based on verification test results, we are proposing a development plan to broaden SIARD functionality and set a direction to efficiently enhance SIARD for local situations.

Bayesian Validation Method based on Fuzzy c-Means Algorithm for Analysis of Optimal Gene Clustering (최적의 유전자 클러스터 분석을 위한 퍼지 c-Means 알고리즘 기반의 베이지안 검증 방법)

  • 유시호;원홍희;조성배
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.736-738
    • /
    • 2003
  • 수천 개의 유전자 발현 정보를 가지고 있는 DNA 마이크로어레이 기술의 발달로 대량의 생물정보를 빠른 시간 내에 분석하는 것이 가능하게 되었다. 유전자를 분석하는 방법 중 하나인 클러스터링 방법은 비슷한 기능을 가진 유전자들을 집단화시켜서 집단내의 유전자들의 기능을 밝히거나, 미지의 유전자를 분석하는데 이용되고 있다. 본 논문에서는 유전자 데이터를 분석하기 위한 퍼지 클러스터링 방법과 이를 효과적으로 검증할 수 있는 베이지안 검증 방법을 제안한다. 퍼지 c-means 알고리즘을 사용하여 클러스터를 생성하고, 클러스터 결과를 기존의 퍼지 클러스터 검증 방법들과 본 논문에서 제안하는 베이지안 검증 방법을 사용하여 비교 평가한다. 베이지안 검증 방법은 각 유전자의 클러스터 멤버쉽을 확률로 이용하여 각 클러스터에 속할 확률을 계산하고, 이 값을 가장 크게 해주는 클러스터 집단을 선택한다. 이 방법은 기존의 퍼지 클러스터 검증 방법들과는 달리 클러스터 수에 무관한 평가가 가능한 장점을 가지고 있다. Serum과 Yeast 데이터에 대한 실험 결과, 베이지안 검증 방법의 유용성을 확인할 수 있었다.

  • PDF

Implementation and Verification of Data Interface Simulator for ISS (국제우주정거장 데이터 인터페이스 시뮬레이터 구현 및 검증)

  • 서석배;김종우;이주희;임현수;최기혁;최해진
    • Proceedings of the IEEK Conference
    • /
    • 2003.07a
    • /
    • pp.282-285
    • /
    • 2003
  • 본 논문에서는 국제우주정거장 (International Space Station; ISS) 개발을 위한 필수 요건인 데이터 인터페이스 기술을 습득하고자, 국제우주정거장에 부착되는 탑재모듈 (Payload)과 인터페이스를 위한 요구사항을 분석/설계하였으며, 이를 검증하기 위한 시뮬레이터의 개발결과를 소개한다. 국제우주정거장과 탑재모듈간의 데이터 인터페이스를 정의하고 구현함으로써, 추후 여러 가지 탑재모듈 개발 시 표준 데이터 인터페이스에 대한 기술을 확보할 수 있으며, 탑재모듈의 특성이나 국제우주정거장의 구체적인 기능에 대한 추가 연구를 통해 탑재모듈 개발 ETB (Electrical Test Bed) 로서의 기능도 수행할 수 있을 것으로 기대된다.

  • PDF

Design and Verification of PCI 2.2 Target Controller (PCI 2.2 타겟 컨트롤러 설계 및 검증)

  • Seo, Kyung-Ho;Choi, Eun-Ju;Seo, Kwang-Duck;Hyun, Eu-Gin;Seong, Kwang-Su
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.1671-1674
    • /
    • 2005
  • PCI 2.2 마스터 디바이스가 타겟 디바이스로부터 데이터를 읽어 오고자 할 때 타겟 장치는 내부적으로 데이터를 준비해야 함으로 인해 PCI 버스가 데이터 전송 없이 점유되는 상황이 발생한다. 이를 위해 PCI 2.2 사양에서는 지연전송을 제안하여 전송 효율을 향상시켰지만 이 역시 타겟 디바이스가 얼마의 데이터를 미리 준비 해둘지를 알 수 없어 인해 버스 사용 및 데이터 전송 효율을 떨어뜨리는 원인을 제공한다. 본 논문에서는 먼저 이를 해결하기 위한 새로운 방법을 제안한다. 그리고 이 방법을 지원하는 PCI 타겟 컨트롤러와 로컬 디바이스를 설계하였다. 설계되어진 PCI 타겟 컨트롤러는 PCI 2.2를 전혀 모르는 사용자도 쉽게 PCI 인터페이스를 지원할 수 있도록 한 프로토콜 변환기로 사용될 수 있다. PCI 타겟 컨트롤러와 로컬 디바이스는 먼저 행위 모델로 설계하였으며 또한 이들을 검증하기 위한 테스트벤치를 설계 하였다. 이를 통해 제안되어진 방법의 성능을 측정하였으며 후에 다시 실제 하드웨어로 설계하였다. 설계되어진 하드웨어를 효과적으로 검증하기 위해 참조모델, 랜덤발생기, 비교엔진으로 구성된 랜덤 테스트 환경을 제안하였다. 이 검증 환경에서 수행된 결과를 비교함으로써 일반적인 테스트 벡터에서 발견하기 어려운 에러들을 발견할 수 있었다.

  • PDF