• Title/Summary/Keyword: 중복 데이터

Search Result 1,019, Processing Time 0.028 seconds

A New Approach to Design Variant BOM applying Coordinate Concept (좌표개념을 활용한 Variant BOM 설계의 새로운 접근법)

  • Yu Jin-Seon;Lee Hyeong-Gon;Park Jin-U
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 2006.05a
    • /
    • pp.328-332
    • /
    • 2006
  • 소비자의 요구가 다양해지면서 많은 기업들이 관리해야 할 제품의 종류가 지난 몇 년간 급격히 늘어났다. 이에 한 제품에 대해 다양한 품목군을 유지해야 할 필요성이 제기되었으며, 전통적인 BOM(Bill of Material)으로 다양한 제품을 표현하기에는 막대한 양의 데이터가 발생하여 관리상의 어려움이 생기며, 데이터의 구성에도 중복성의 문제가 발생하게 되는 등의 한계가 드러남에 따라 다양한 제품군을 자체적으로 반영할 수 있는 Variant BOM의 개념 및 설계 방법론이 주목을 받고 있다. Variant BOM은 동일한 제품군에 대해 일부 구성품을 달리하여 구현한 다양한 제품을 반영하는 BOM의 한 종류로서 산업에서의 활용도가 높은 편이나, 여기에도 데이터의 중복성이나 Variant의 정도가 많아지면 관리에 어려움이 생기는 등의 몇 가지 단점을 내포하고 있다. 본 연구에서는 Variant Bill of Material을 대상으로 기존 연구들의 문제점을 분석하고 이를 해결하기 위하여 BOM에 좌표개념을 도입한 새로운 접근법을 제시한다. 이를 통해 BOM의 Structure와 Part를 분리시켰고, Linking Table을 통해 Structure와 Part를 연결하여 기존의 Variant BOM에 있던 문제들을 해결하였다.

  • PDF

Design on DTD-independent Data Model for XML Document (XML 문서를 위한 DTD 독립적인 데이터 모델 설계)

  • 김정은;신판섭;이재호;임해철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.69-71
    • /
    • 2000
  • XML은 사용자가 문서를 적절히 구조화해서 저장시킬 수 있는 장점으로 인해 기존의 HTML로 구축된 웹서비슬 환경을 데이터베이스화하여 다양하고 복잡한 검색 환경을 제공한다. 이러한 이유로 최근에 XML 문서를 데이터베이스에 저장하고 효율적인 관리 및 검색을 지원하는 연구들이 많이 진행되고 있다. 기존 연구를 살펴보면 XML의 구조적 특징을 문서 독립적으로 모델링하지 않아 갱신 및 검색 효율이 떨어지고, 생성되는 테이블의 수가 증가하며, 원문 복원 능력의 저하와 데이터 중복이 발생하는 문제점을 안고 있다. 따라서 본 논문에서는 관계 데이터베이스를 기반으로 XML문서의 구조 정보를 DTD 독립적으로 구성하여 테이블 생성 수와 갱신의 문제점을 개선하고, DTD 구조의 경로 정보 표현을 제안하여 탐색 및 원문 복원 능력을 강화하며, 테이블 중복 문제를 해결한 데이터 모델을 제안한다.

  • PDF

An Adaptive Motion Estimation based on Spatial Motion Vector Correlation (움직임 벡터의 공간적 상관성을 이용한 적응적 움직임 벡터 추정)

  • Yoon, Hyo-Sun;Lee, Guee-Sang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04a
    • /
    • pp.779-782
    • /
    • 2002
  • 영상 압축 분야에서 데이터의 압축이 필수적인데, 이때 가장 많은 중복성을 가지고 있는 시간적 중복성은 이전 프레임의 데이터를 이용하여 움직임 추정과 움직임 보상을 수행하고 추정된 움직임 벡터에 의해서 보상된 영상과 원 영상과의 차 신호를 부호화하여 데이터를 압축한다. 움직임 추정과 움직임 보상 기법은 비디오 영상압축에서 중요한 역할을 하지만 많은 계산량으로 인하여 실시간 응용 및 고해상도 응용에 많은 어려움을 가지고 있다. 만일 움직임 추정을 하기 전에 블록의 움직임을 예측할 수 있다면 이를 바탕으로 탐색 영역에서 초기 탐색점의 위치 및 탐색 패턴을 결정할 수 있다. 본 논문에서는 움직임 벡터의 높은 공간적 상관성을 이용하여 초기 탐색점의 위치와 탐색 패턴을 결정함으로써 적응적으로 움직임 벡터를 추정하는 새로운 기법을 제안하고 성능을 평가한다. 실험을 통하여 제안된 알고리즘은 계산량의 감소에 있어서 높은 성능 향상을 보였다.

  • PDF

An Adaptive Block Matching Algorithm based on Temporal Correlation (시간적 상관성을 이용한 적응적 블록 정합 알고리즘)

  • Yun, Hyo-Sun;Lee, Guee-Sang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.797-800
    • /
    • 2001
  • 영상 압축 분야에서 데이터의 압축이 필수적인데, 이때 가장 많은 중복성을 가지고 있는 시간적 중복성은 이전 프레임의 데이터를 이용하여 움직임 추정과 움직임 보상을 수행하고 추정된 움직임 벡터에 의해서 보상된 영상과 원 영상과의 차 신호를 부호화하여 데이터를 압축한다. 움직임 추정과 움직임 보상 기법은 비디오 영상압축에서 중요한 역할을 하지만 많은 계산량으로 인하여 실시간 응용 및 고해상도 응용에 많은 어려움을 가지고 있다. 만일 움직임 추정을 하기 전에 블록의 움직임을 예측할 수 있다면 이를 바탕으로 탐색 영역에서 초기 탐색점의 위치 및 탐색 패턴을 결정찬 수 있다. 본 논문에서는 움직임의 높은 시간적 상관성을 이용하여 초기 탐색점의 위치와 탐색 패턴을 결정함으로써 적응적으로 움직임 추정하는 새로운 기법을 제안하고 성능을 평가한다. 실험을 통하여 제안된 알고리즘은 계산량의 감소에 있어서 높은 성능 향상을 보였다.

  • PDF

데이터베이스 테이터의 고장진단 및 복구를 위한 전문가 시스팀

  • Lee, Gil-Haeng;U, Wang-Don;Jo, Ju-Hyeon
    • ETRI Journal
    • /
    • v.14 no.4
    • /
    • pp.148-164
    • /
    • 1992
  • 본 논문에서는 TDX-10 데이터베이스 데이터의 고장을 주기적으로 진단하고 복구할 수 있는 고장진단 전문가 시스팀을 제안하고 구현하였다. 실시간 환경 및 분산구조를 갖는 데이터베이스 관리 시스팀에서 데이터베이스의 효과적인 접근을 위해서 필요한 데이터베이스의 데이터 즉, 디렉토리와 딕셔너리는 매우 중요하며 고장이 발생할 경우 데이터베이스 관리시스팀에 미치는 영향은 치명적이다. 따라서, 실시간 환경을 갖는 데이터베이스 관리 시스팀에서 데이터베이스 데이터에 대한 고장 진단 및 복구는 필수적이라고 할 수 있다. 본 논문에서 제안한 고장진단 전문가 시스팀은 데이터베이스 데이터를 운용중 변하는 부분과 변하지 않는 부분으로 분류하고 미리 주어진 고장진단 규칙에 따라 진단하는 방법이다. 데이터베이스 데이터의 고장진단 데이터, 고장진단 규칙, 고장진단 데이터 생성기, 고장진단 데이터 검증기, 그리고 고장진단기로 구성되어 있다. 고장진단 데이터는 고장진단기가 데이터베이스 데이터를 주기적으로 진단하기 위하여 사용하는 마스터 데이터로서 두개가 존재한다. 고장진단 데이터 생성기는 데이터베이스 데이터의 고장진단을 위한 데이터 구조를 생성하고 데이터베이스로부터 데이터베이스를 데이터를 중복하여 읽어들이는 역할을 한다. 이와 같은 과정은 시스팀이 초기에 동작을 시작하거나 운용중 운용자에 의해서 릴레이션의 추가 및 삭제, 그리고 튜플의 추가등과 같은 사건이 발생할 경우에 이루어진다. 데이터베이스 검증기는 고장진단 데이터 생성기가 중복하여 생성한 데이터에 대해서 데이터베이스 데이터의 제작시의 초기 오류를 검증해냄으로써 데이터베이스 관리 시스팀의 안전한 운용을 가능하게 하며 고장진단기가 데이터베이스 데이터를 주기적으로 진단할 데이터를 탄생시킨다. 마지막으로 고장진단기는 주기적으로 데이터베이스 데이터의 고장을 진단하여 고장이 발생한 데이터를 미리 분류한 규칙에 따라 원래의 데이터로 복구하거나 운용자에게 보고함으로써 고장에 대비하도록 한다. 그리고 데이터베이스 상의 운용자에 의한 변경을 감지하여 고장진단 데이터의 재생성을 지시한다. 본 논문에서 제시하고 구현한 데이터베이스 데이터의 고장진단 및 복구를 위한 전문가 시스팀은 실시간 환경과 고장허용 환경, 분산 구조 그리고 빈번한 접근을 갖는 데이터베이스 관리 시스팀에서 아주 중요한 역할을 할 수 있다.

  • PDF

Data Sampling-based Angular Space Partitioning for Parallel Skyline Query Processing (데이터 샘플링을 통한 각 기반 공간 분할 병렬 스카이라인 질의처리 기법)

  • Chung, Jaehwa
    • The Journal of Korean Association of Computer Education
    • /
    • v.18 no.5
    • /
    • pp.63-70
    • /
    • 2015
  • In the environment that the complex conditions need to be satisfied, skyline query have been applied to various field. To processing a skyline query in centralized scheme, several techniques have been suggested and recently map/reduce platform based approaches has been proposed which divides data space into multiple partitions for the vast volume of multidimensional data. However, the performances of these approaches are fluctuated due to the uneven data loading between servers and redundant tasks. Motivated by these issues, this paper suggests a novel technique called MR-DEAP which solves the uneven data loading using the random sampling. The experimental result gains the proposed MR-DEAP outperforms MR-Angular and MR-BNL scheme.

A study on the application of blockchain technology to prevent duplicate supply and demand of similar welfare services (복지서비스 유사사업의 중복수급 방지를 위한 블록체인 기술 적용 연구)

  • Min, Youn A
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.6
    • /
    • pp.151-156
    • /
    • 2020
  • Various institutions provide various welfare-related services, and accordingly, the quantity and quality of welfare-related services are improved. Along with the improvement of welfare services, the rate of fraudulent and redundant supply and demand due to inappropriate applicants is also increasing. In particular, in the case of similarly promoted projects by various institutions, confirmation of duplicate applications may be insufficient due to system inconsistency between institutions and delays in qualification verification, which may result in duplicate supply and demand. In this paper, in order to prevent the redundant supply and demand related to welfare service similar projects in various institutions, the problem of data management and sharing between institutions was reviewed and a method of applying blockchain technology was proposed step by step. Through the proposal of this paper, transparent data management of recipients is possible, and through this, trust-based welfare benefit management will be possible.

Data Deduplication Method using PRAM Cache in SSD Storage System (SSD 스토리지 시스템에서 PRAM 캐시를 이용한 데이터 중복제거 기법)

  • Kim, Ju-Kyeong;Lee, Seung-Kyu;Kim, Deok-Hwan
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.4
    • /
    • pp.117-123
    • /
    • 2013
  • In the recent cloud storage environment, the amount of SSD (Solid-State Drive) replacing with the traditional hard disk drive is increasing. Management of SSD for its space efficiency has become important since SSD provides fast IO performance due to no mechanical movement whereas it has wearable characteristics and does not provide in place update. In order to manage space efficiency of SSD, data de-duplication technique is frequently used. However, this technique occurs much overhead because it consists of data chunking, hasing and hash matching operations. In this paper, we propose new data de-duplication method using PRAM cache. The proposed method uses hierarchical hash tables and LRU(Least Recently Used) for data replacement in PRAM. First hash table in DRAM is used to store hash values of data cached in the PRAM and second hash table in PRAM is used to store hash values of data in SSD storage. The method also enhance data reliability against power failure by maintaining backup of first hash table into PRAM. Experimental results show that average writing frequency and operation time of the proposed method are 44.2% and 38.8% less than those of existing data de-depulication method, respectively, when three workloads are used.

Data management Scheme modeling for Heterogeneous system integration (이종 시스템 통합을 위한 데이터 관리 기법 모델링)

  • Kang, In-Seong;Lee, Hong-Chul
    • Proceedings of the KAIS Fall Conference
    • /
    • 2010.05a
    • /
    • pp.436-439
    • /
    • 2010
  • 본 논문에서는 Ubiquitous Computing 환경 하에서 이종 시스템 간의 통합을 위한 데이터 관리 기법 모델을 제안하였다. 이종 시스템 간의 통합이 이루어지면 방대한 양의 데이터를 모든 시스템이 공유해야 하기 때문에 무분별한 데이터의 중복과 저장으로 인해 프로세스의 데이터 처리 성능 및 데이터 무결성을 보장받지 못 하는 등의 문제점이 발생한다. 이를 보완하기 위해 Minimal cost Spanning tree의 원리를 적용하여 시스템 통합에 따른 데이터 처리 및 무결성 문제 해결을 위한 메커니즘을 제시하고자 한다.

  • PDF

Log Collection Method for Efficient Management of Systems using Heterogeneous Network Devices (이기종 네트워크 장치를 사용하는 시스템의 효율적인 관리를 위한 로그 수집 방법)

  • Jea-Ho Yang;Younggon Kim
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.23 no.3
    • /
    • pp.119-125
    • /
    • 2023
  • IT infrastructure operation has advanced, and the methods for managing systems have become widely adopted. Recently, research has focused on improving system management using Syslog. However, utilizing log data collected through these methods presents challenges, as logs are extracted in various formats that require expert analysis. This paper proposes a system that utilizes edge computing to distribute the collection of Syslog data and preprocesses duplicate data before storing it in a central database. Additionally, the system constructs a data dictionary to classify and count data in real-time, with restrictions on transmitting registered data to the central database. This approach ensures the maintenance of predefined patterns in the data dictionary, controls duplicate data and temporal duplicates, and enables the storage of refined data in the central database, thereby securing fundamental data for big data analysis. The proposed algorithms and procedures are demonstrated through simulations and examples. Real syslog data, including extracted examples, is used to accurately extract necessary information from log data and verify the successful execution of the classification and storage processes. This system can serve as an efficient solution for collecting and managing log data in edge environments, offering potential benefits in terms of technology diffusion.