• Title/Summary/Keyword: 데이터 검증

Search Result 7,261, Processing Time 0.039 seconds

A Study on the Data Analysis of Fire Simulation in Underground Utility Tunnel for Digital Twin Application (디지털트윈 적용을 위한 지하공동구 화재 시뮬레이션의 데이터 분석 연구)

  • Jae-Ho Lee;Se-Hong Min
    • Journal of the Society of Disaster Information
    • /
    • v.20 no.1
    • /
    • pp.82-92
    • /
    • 2024
  • Purpose: The purpose of this study is to find a solution to the massive data construction that occurs when fire simulation data is linked to augmented reality and the resulting data overload problem. Method: An experiment was conducted to set the interval between appropriate input data to improve the reliability and computational complexity of Linear Interpolation, a data estimation technology. In addition, a validity verification was conducted to confirm whether Linear Interpolation well reflected the dynamic changes of fire. Result: As a result of application to the underground common area, which is the study target building, it showed high satisfaction in improving the reliability of Interpolation and the operation processing speed of simulation when data was input at intervals of 10 m. In addition, it was verified through evaluation using MAE and R-Squared that the estimation method of fire simulation data using the Interpolation technique had high explanatory power and reliability. Conclusion: This study solved the data overload problem caused by applying digital twin technology to fire simulation through Interpolation techniques, and confirmed that fire information prediction and visualization were of great help in real-time fire prevention.

A Study of Automatic Deep Learning Data Generation by Considering Private Information Protection (개인정보 보호를 고려한 딥러닝 데이터 자동 생성 방안 연구)

  • Sung-Bong Jang
    • The Journal of the Convergence on Culture Technology
    • /
    • v.10 no.1
    • /
    • pp.435-441
    • /
    • 2024
  • In order for the large amount of collected data sets to be used as deep learning training data, sensitive personal information such as resident registration number and disease information must be changed or encrypted to prevent it from being exposed to hackers, and the data must be reconstructed to match the structure of the built deep learning model. Currently, these tasks are performed manually by experts, which takes a lot of time and money. To solve these problems, this paper proposes a technique that can automatically perform data processing tasks to protect personal information during the deep learning process. In the proposed technique, privacy protection tasks are performed based on data generalization and data reconstruction tasks are performed using circular queues. To verify the validity of the proposed technique, it was directly implemented using C language. As a result of the verification, it was confirmed that data generalization was performed normally and data reconstruction suitable for the deep learning model was performed properly.

원격탐사위성의 탑재체자료전송장치를 위한 시험검증장비의 개발

  • Lee, Sang-Taek;Jin, Yeong-Bae
    • The Bulletin of The Korean Astronomical Society
    • /
    • v.37 no.2
    • /
    • pp.228.2-228.2
    • /
    • 2012
  • 본 논문에서는 탑재체자료전송장치의 시험검증을 위한 장비 개발에 관하여 소개 한다. 원격탐사위성에 탑재되는 고성능원격측정센서는 대용량 데이터를 생성하며 탑재체자료전송장치를 통하여 고주파통신에 의해 지상으로 전송된다. 따라서 탑재체자료전송장치의 검증은 전체 인공위성 개발에 있어서 매우 중요하다. 시험검증장비는 송신되는 수신자료를 수신하여 여러 장비로 분배해주는 고주파신호분배모듈, 계측기 및 복조기 등 다양한 장비로 구성된다. 시험검증장비는 고성능 고주파신호 부품, 다양한 전자장비와 이를 통합, 제어 운영하는 다양한 복잡한 소프트웨어가 필요하여 개발이 어렵다. 본 논문에서는 초기 제작 시험검증장비와 최종 제작 시험검증장비 사이의 차이와 성능, 기능의 향상을 위한 설계변경 등을 통하여 이에 대한 어려움을 극복한 과정과 설계 근거와 장비 선택 등 제반사항에 대하여 기술하여 이후 관련 유사장비의 개발에 있어 도움이 되고자 한다.

  • PDF

Implementation of Integrated Metadata Framework Based on METS Analysis (METS 분석기반 통합메타데이터 프레임워크 구현)

  • Min, Byoung-Won;Oh, Yong-Sun
    • The Journal of the Korea Contents Association
    • /
    • v.11 no.12
    • /
    • pp.60-70
    • /
    • 2011
  • Conventional content management systems are independently developed for a specific field in general. Therefore usage of contents for the CMS will be limited to the corresponding CMS field. These characteristics might reveal a defect that CMS could not support effectively in exchange and sharing of information between CMSs. On the other hand, metadata standardization shows big differences in method and representation for the fields of CMS because all metadata standardizations are variously performed according to applications of them. There are lots differences that make interoperability between CMSs impossible. In this paper, we propose a novel metadata schema based on METS(metadata encoding and transmission standard) so that metadata standardization can be fulfilled in reality and solved the problem of duplicated contents created from different CMSs. This framework of integrated metadata proposed here can offer an interoperability between contents created by different CMSs, and discard duplicated contents. As a result of the proposed technology, we obtain 0.5% duplication rate from traditional 10.3%. In addition the filtering ability of duplicated contents shows from 92% to 96%, which proves the effectiveness and stability of the proposed technology.

Estimation and Evaluation of Reanalysis Air Temperature based on Mountain Meteorological Observation (산악기상정보 융합 기반 재분석 기온 데이터의 추정 및 검증)

  • Sunghyun, Min;Sukhee, Yoon;Myongsoo, Won;Junghwa, Chun;Keunchang, Jang
    • Korean Journal of Agricultural and Forest Meteorology
    • /
    • v.24 no.4
    • /
    • pp.244-255
    • /
    • 2022
  • This study estimated and evaluated the high resolution (1km) gridded mountain meteorology data of daily mean, maximum and minimum temperature based on ASOS (Automated Surface Observing System), AWS (Automatic Weather Stations) and AMOS (Automatic Mountain Meteorology Observation System) in South Korea. The ASOS, AWS, and AMOS meteorology data which were located above 200m was classified as mountainous area. And the ASOS, AWS, and AMOS meteorology data which were located under 200m was classified as non-mountainous area. The bias-correction method was used for correct air temperature over complex mountainous area and the performance of enhanced daily coefficients based on the AMOS and mountainous area observing meteorology data was evaluated using the observed daily mean, maximum and minimum temperature. As a result, the evaluation results show that RMSE (Root Mean Square Error) of air temperature using the enhanced coefficients based on the mountainous area observed meteorology data is smaller as 30% (mean), 50% (minimum), and 37% (maximum) than that of using non-mountainous area observed meteorology data. It indicates that the enhanced weather coefficients based on the AMOS and mountain ASOS can estimate mean, maximum, and minimum temperature data reasonably and the temperature results can provide useful input data on several climatological and forest disaster prediction studies.

A Study of Updata Scheme of Spatial Data on Web Environment (웹 환경에서 공간 데이터 변경 기법에 관한 연구)

  • 안성우;서영덕;홍봉희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.308-310
    • /
    • 2000
  • 웹 환경의 성장으로 현재 GIS 응용은 기존의 랜 환경에서의 서비스를 웹에서도 할 수 있게 함으로써 보다 쉽게 다양한 사용자들이 서비스를 제공받도록 하고 있다. 이런 이유로 웹 환경에서의 GIS 응용은 다양한 사용자 층에 대한 요구를 만족시키기 위하여 다양한 서비스 데이터를 필요로 하고, 이 데이터들은 빠른 시간 내에 지속적으로 사용자의 요구를 만족시키기 위하여 변경되어야 한다. 그러나 이러한 데이터 변경을 서버에서 모두 한다는 것은 불가능하기 때문에 클라이언트가 데이터 변경이 필요할 때 적절히 변경을 할 수 있는 방법이 제시되어야 한다. 랜 환경에서의 공간 데이터 변경과는 달리 웹 환경에서의 공간 데이터 변경은 현재까지 환경의 차이와 이로 인한 프로토콜의 복잡함 등의 이유로 연구가 거의 이루어지지 않았다. 이 논문에서는 웹 환경에서 웹 클라이언트가 서버측의 공간 데이터를 변경하는 문제에 대해서 다루고 있다. 웹 환경에서 공간 데이터를 변경할 때 가장 문제가 되는 HTTP 프로토콜의 연결 해제(Connectioness)와 상태 비유지(Stateless)에 대한 해결책을 제시한다. 그리고 비정상적인 상황의 발생을 고려하여 잠금과 서버 데이터의 불일치를 해결하는 프로토콜을 설계하고 이에 대한 구현을 통하여 검증을 한다.

  • PDF

A Fuzzy Decision Tree for Data Mining (데이터 마이닝을 위한 퍼지 결정트리)

  • 이중근;민창우;김명원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.63-65
    • /
    • 1998
  • 사회 전 분야에서 데이터가 폭발적으로 증가함에 따라 데이터를 이해하고 분석하는 새로운 자동적이고 지능적인 데이터 분석 도구와 기술이 필요하게 되었다. KDD(Knowledge Discovery in Databases)는 이러한 필요로부터 데이터에서 유용하고 이해 가능한 지식을 추출하는 연구이다. 데이터 마이닝(Data Mining)은 KDD에서 가장 중요한 단계로 데이터로부터 지식을 추출하는 단계이다. 데이터 마이닝에서 생성된 지식은 좋은 분류율을 가져야하고 이해하기 쉬워야한다. 본 논문에서는 퍼지 결정트리(FDT : Fuzzy Decision Tree)에 기반한 효율적인 데이터 마이닝 알고리즘을 제안한다. FDT의 각 링크는 속성(attribute) 값을 갖는 퍼지 집합이며, EDT의 각 경로는 퍼지 규칙을 생성한다. 제안된 알고리즘은 ID3의 이해성과 퍼지이론의 추론과 표현력을 결합한 방법으로 히스토그램에 이루어진다. 마지막으로 제안된 방법의 타당성을 검증하기 위해 표준적인 패턴 분류 벤치마크 데이터에 대한 실험 결과를 보인다.

  • PDF

A Case Study on Enhancing Data Quality Through Improvement of Data Management Process: koid Corp (데이터 관리 프로세스 개선을 통한 데이터 품질 개선 사례 연구: (주) 코이드 사례)

  • Huh, Hee-Joung;Kim, Jong-Woo
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2007.11a
    • /
    • pp.345-350
    • /
    • 2007
  • 최근 기업의 각 업무가 정보화 되면서 부문별, 업무별 정보시스템의 데이터 간에 심각한 중복성과 불일치성의 문제가 대두되면서 데이터 품질관리에 관심이 집중되고 있다. 본 연구는 실제로 데이터 표준 관리와 데이터 요구사항 관리를 통매 데이터 품질 관리 프로세스를 개선한 사례를 제시함으로써 데이터 품질 향상을 위해 노력하는 타 기업들에게 도움을 주고자 하였다. 또한, 개선된 데이터 품질 관리 프로세스에 대한 다차원적인 평가로서 데이터 품질, 생산성, 고객만족도, 조직 및 문화의 측면에서 정성 적이고 정량적인 지표를 통한 개선효과를 살펴보고 평가함으로써 제안된 프로세스에 의해 품질수준이 향상되었음을 검증하였고 평가 분석을 통한 시사점을 도출하였다.

  • PDF

A Safe and Efficient Secure Data Deduplication for Cloud Storage Environment (클라우드 스토리지 환경을 위한 안전하고 효율적인 암호데이터 중복제거 기술)

  • Kim, Won-Bin;Lee, Im-Yeong
    • Annual Conference of KIPS
    • /
    • 2015.10a
    • /
    • pp.714-717
    • /
    • 2015
  • 기존의 암호데이터 중복제거 기술은 데이터의 중복 여부를 판단하기 위해 다양한 방식으로 데이터를 전송하고 이를 기존에 저장된 데이터와 비교하여 중복여부를 판단하게 된다. 이러한 데이터 중복제거 기술의 중복제거 효율성을 높이기 위해 최근 블록 단위의 중복제거 기술이 사용되고 있다. 하지만 블록 단위 중복제거 기술의 적용 과정에서 다양한 보안 위협이 발생하는데, 이 중 포이즌 어택은 무결성 및 데이터 저장 시 저장되는 데이터에 대한 검증이 이루어지지 않는 시스템에서 발생하는 위협 중 하나이다. 이러한 위협을 해결하기 위해 암호화 기술을 적용한 여러 기술들이 연구되어 제안되었지만 과도하게 많은 통신 횟수와 연산이 발생되어 효율성이 떨어지는 문제가 존재한다. 따라서 본 논문에서는 클라우드 스토리지에 저장되는 데이터의 기밀성과 무결성을 보장하며, 연산량과 통신량에서 보다 효율적인 암호데이터 중복제거 기술을 제안한다.

Diabetes Predictive Analytics using FCM Clustering based Supervised Learning Algorithm (FCM 클러스터링 기반 지도 학습 알고리즘을 이용한 당뇨병 예측 분석)

  • Park, Tae-eun;Kim, Kwang-baek
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.10a
    • /
    • pp.580-582
    • /
    • 2022
  • 본 논문에서는 데이터를 정량화하여 특징을 분류하기 위한 방법으로 퍼지 클러스터링 기반 지도 학습 방법을 제안한다. 제안된 방법은 FCM 클러스터링을 기법을 적용하여 군집화를 수행한다. 그리고 군집화 된 데이터들 중에서는 정확히 분류되지 않은 데이터가 존재하므로 분류되지 않은 데이터에 대해 지도 학습 방법을 적용한다. 본 논문에서는 당뇨병의 유무를 타겟 데이터로 설정하고 나머지 8개의 속성의 데이터를 FCM 기반 지도 학습 방법을 적용하여 당뇨병의 유무를 예측한다. 당뇨병 예측에 대한 성능을 30회의 K-겹 교차검증 (K-Fold Corss Validation)을 이용하여 평가하였으며, 다층 퍼셉트론의 경우에는 훈련 데이터가 77.88%, 테스트 데이터가 62.78%로 나타났고 제안된 방법의 경우에는 훈련 데이터가 79.96%, 테스트 데이터 74.16%로 나타났다.

  • PDF