• Title/Summary/Keyword: 중복 데이터

Search Result 1,018, Processing Time 0.031 seconds

The Model and System of Spatial Data Interchange In Distributed Various Computing Platform (분산이기종환경에서의 공간데이터 교환 모델 및 시스템)

  • Cha, Jung-Sook;Kim, Myung-Gu;Kim, Sung-Ryong;Kang, In-Soo
    • 한국공간정보시스템학회:학술대회논문집
    • /
    • 2002.03a
    • /
    • pp.22-28
    • /
    • 2002
  • 지리정보시스템에서 사용되는 공간데이터의 특성은 양이 방대하고 구조가 복잡하여 데이터를 구축하는데 많은 비용과 노력이 요구된다. 또한 각 지리정보 응용시스템마다 특정한 포맷으로 데이터를 구축, 사용하는 실정 때문에 기존에 동일한 데이터가 구축이 되었더라도 재사용하지 못하고 다시 재 구축하여 사용하였다. 대부분의 지리정보 응용시스템에서 기존의 데이터를 재 사용지 못하고 전체 예산의 60% 이상을 데이터 구축에 중복 투자하는 문제점이 존재한다. 또한 데이터구축의 문제점뿐만 아니라 소프트웨어적으로 시스템 환경에 의존적으로 구현되어 시스템 환경이 변하는 경우에 시스템 자체가 수정되거나 재 구현되어야 하는 문제점도 존재하였다. 본 논문에서는 이러한 데이터 중복구축 및 투자와 시스템 의존적인 구성의 문제점들을 해결하기 위해 기존에 존재하는 데이터를 온라인상에서 검색하여 사용자가 재 사용할 수 있도록 OpenGIS에서 제안한 CatalogService를 구현하고 분산된 상호 이질적인 환경에서 서로의 데이터를 공유하고 연동하는 모델을 제안하고 구현하기 위해 WWW, COM, CORBA 기반으로 시스템을 구현하였다.

  • PDF

X+ Join : The improved X join scheme for the duplicate check overhead reduction (엑스플러스 조인 : 조인 중복체크의 오버헤드를 줄이기 위한 개선된 방법)

  • Baek, Joo-Hyun;Park, Sung-Wook;Jung, Sung-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10c
    • /
    • pp.28-32
    • /
    • 2006
  • 유비쿼터스(Ubiquitous)환경과 같이 외부로부터 입력되는 데이터가 stream의 형식으로 실시간으로 들어오고, 입력의 끝을 알 수 없는 환경에서는 기존의 join방식으로는 문제를 해결 할 수 없다. 또한 이러한 환경 하에서는 데이터의 크기나 특성이 모두 다르고 네트워크 상태에 따라 입력이 많은 영향을 받게 된다. 이런 stream환경의 join연산을 위하여 double pipelined hash join, Xjoin, Pjoin등 많은 알고리즘이 기존의 연구를 대표하여 왔다. 그 중 Xjoin은 symmetric hash join과 hybrid hash join의 특징들을 이용해서 들어오는 data의 흐름에 따라서 reactive하게 join과정을 조절함으로써 streaming data에 대한 join을 수행한다. 그러나 여러 단계의 수행에 따른 연산의 중복결과를 체크하기 위한 overhead로 인해 성능이 떨어진다. 이 논문에서는 이러한 점을 개선하기 위해서 Xjoin의 수행과정을 수정한 방법을 제시할 것이다. 각 partition마다 구분자만을 추가함으로써 간단하게 중복을 만들어내지 않는 방법을 제안하고 불필요한 연산과 I/O를 줄일 수 있도록 partition선택방법을 추가할 것이다. 이를 통해서 중복된 연산인지 체크하는 과정을 상당히 단순화함으로써 좀 더 좋은 성능을 가지게 될 것이고 또한 timestamp를 저장해야 하는 overhead를 줄여서 전체 연산에 필요한 저장 공간을 절약할 수 있다.

  • PDF

Development of data conversion system between MOS & EMS (이기종 컴퓨터(MOS/EMS)간 데이터 자동변환시스템 개발)

  • Lee, Kang-Jae;Choi, Bong-Soo;Kim, Tae-Eon
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.1863-1864
    • /
    • 2008
  • 한국전력거래소에서 운영중인 EMS(Energy Management System)와 MOS(Market Operation System) 설비는 각각 Alstom사와 ABB사에 의해 우리나라의 전력계통 특성에 맞게 제작되어 공급된 전력계통과 전력시장의 운영을 자동화한 시스템이다. EMS는 전력계통 감시와 효율적인 운영을 위해 전력계통을 모델링한 데이터를 활용하며, MOS는 실시간 급전계획 수립을 위한 기반자료로 전력계통을 모델링한 데이터를 사용하게 된다. 그러나, 대한민국 전력산업의 핵심인 두 시스템은 시스템 설계 방식 및 DB 구조가 상이하여 전력계통의 신.증설 및 변경 시 동일한 데이터를 양 시스템에 각각 따로 구축, 운영해야하는 실정이다. 이에 따라 DB작업을 위한 자료 준비부터 입력, 수정, 검증 등 모든 과정에 중복된 관리가 이루어지고 있다. 중복 관리는 양 시스템 간 DB의 주요 데이터 특성 및 명칭이 상이하여 일률적인 관리가 어렵고, 시스템별 특성 및 운영노하우가 없이는 인적실수에 의한 입력오류 개연성이 폭넓게 존재하는 등 현 상황에서 피할 수 없는 현실이었다. EMS와 MOS 시스템 중 최소한 개의 시스템을 전면 재구축하지 않으면 해결되지 않을 본 문제를 해소하기 위하여 전력거래소는 특정 시스템에 구축된 데이터를 변환알고리즘을 통해 나머지 하나의 시스템에 자동 구축할 수 있는 시스템을 개발하여 활용하고자 한다. 이것이 바로 EMS에 입력되어 정확성이 검증된 계통데이터를 추출하여 MOS의 데이터 형식으로 변환하고, 변환된 데이터를 MOS시스템에 자동으로 입력할 수 있는 MOS/EMS 데이터 자동변환시스템이다.

  • PDF

Design of Adaptive Deduplication Algorithm Based on File Type and Size (파일 유형과 크기에 따른 적응형 중복 제거 알고리즘 설계)

  • Hwang, In-Cheol;Kwon, Oh-Young
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.24 no.2
    • /
    • pp.149-157
    • /
    • 2020
  • Today, due to the large amount of data duplication caused by the increase in user data, various deduplication studies have been conducted. However, research on personal storage is relatively poor. Personal storage, unlike high-performance computers, needs to perform deduplication while reducing CPU and memory resource usage. In this paper, we propose an adaptive algorithm that selectively applies fixed size chunking (FSC) and whole file chunking (WFH) according to the file type and size in order to maintain the deduplication rate and reduce the load in personal storage. We propose an algorithm for minimization. The experimental results show that the proposed file system has more than 1.3 times slower at first write operation but less than 3 times reducing in memory usage compare to LessFS and it is 2.5 times faster at rewrite operation.

A Modified Diamond Search Algorithm for Fast Block Matching Motion Estimation (고속 블록 정합 움직임 추정을 위한 수정된 다이몬드 기법)

  • 윤효순;손남례;이귀상
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.393-396
    • /
    • 2001
  • 영상 압축 분야에서는 데이터 압축이 필수적인데, 이때 가장 많은 데이터 중복성을 가지고 있는 시간적 중복성은 이전 프레임의 데이터를 이용하여 움직임 추정과 움직임 보상을 수행하고 추정된 움직임 벡터에 의해서 보상된 영상과 원 영상과의 차 신호를 부호화하여 데이터를 압축한다. 움직임 추정과 움직임 보상기법은 비디오 영상압축에서 중요한 역할을 하지만 많은 계산량으로 인하여 실시간 응용이나 고해상도 응용에 많은 어려움을 가지고 있다. 이러한 문제점을 해결하기 위하여 여러 가지 고속정합 알고리즘들과 하드웨어 기법들이 개발되었다. 특히 다이아몬드 탐색 기법은 계산량도 줄이고 안정된 복원 영상 화질을 유지하고 있다. 본 논문에서는 기존의 다이아몬드 탐색 기법의 문제점을 개선한 수정된 다이아몬드 탐색 기법을 제안하고 성능을 평가한다. 실험에 의하여 제안된 기법은 기존의 다이아몬드 탐색 기법과 비교하여 화질 면에서나 속도 면에서 모두 좋은 결과를 가져왔다.

  • PDF

Implementation and Analysis of a XML Based Product Description Model (XML 기반 상품 표현 모델의 구현 및 분석)

  • Kim, Kyoung-Rea;Ha, Sang-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10b
    • /
    • pp.1167-1170
    • /
    • 2001
  • 인터넷 중심의 정보화 사회가 되면서 B2C간 또는 B2B간에 상품 정보의 교환이 활발해지고 있다. 본 논문에서는 상품정보 교환을 위한 한 표준으로 이미 제안된 바 있는 XML 기반 통합 상품 표현 모델을 참조하고 구현한다. 이 모델은 다양한 상품정보를 XML에 기반하여 효과적으로 통합하여 표현할 수 있다. 구현은 Java의 컴포넌트 기술인 Java Bean과 EJB를 사용하여 이루어진다. 참조 모델을 사용하면 모든 상품에 공통된 데이터와 본질적인 데이터로 구분하여 기술할 수 있으며, 따라서 상품의 공통된 정보를 통합하여 기술함으로써 데이터의 중복을 피한 수 있다. 논문에서는 참조 모델이 갖는 데이터 중복 제거 효과를 웹 상의 다양한 상품 정보를 대상으로 분석한다.

  • PDF

Efficient RDF Provenance Compression Scheme Considering Duplication (중복을 고려한 효율적인 RDF 프로버넌스 압축 기법)

  • Han, ji-eun;Yook, mi-sun;Noh, yeon-woo;Kim, dae-yun;Lim, jong-tae;Bok, kyoung-soo;Yoo, jae-soo
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2015.05a
    • /
    • pp.75-76
    • /
    • 2015
  • 본 논문에서는 대용량의 프로버넌스를 압축 저장하기 위한 OPM 기반의 RDF 프로버넌스 압축 기법을 제안한다. 제안하는 기법은 이미 존재하는 데이터 프로버넌스 및 새로운 데이터 프로버넌스를 사전을 기반으로 숫자 데이터로 인코딩한다. 또한 데이터 처리의 중복되는 부분은 서브그래프를 통해 압축한다.

  • PDF

Multicast Routing Protocol in Mobile Networks (이동네트웍에서의 멀티캐스트 라우팅 프로토콜)

  • 신희숙;서영주
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10c
    • /
    • pp.445-447
    • /
    • 1999
  • 이동호스트를 지원하는 이동네트웍에서의 멀티캐스팅 문제는 빈번한 그룹 멤버쉽의 변화와 함께 그룹 멤버의 위치 변화를 가져와 기존의 고정 호스트를 기본으로 설계된 멀티캐스트 프로토콜을 적용하는 것은 적합하지 못하다. 이런 점에서 특히 Mobile IP를 기본 유니캐스팅 방법으로 사용하는 환경에서 이동호스트를 위한 몇가지 멀티캐스팅 방식이 제시되었으나, 비최적 경로의 데이터 전송, 비효율적인 데이터 중복 전송 또는 빈번한 멀티캐스트 트리의 재구성으로 인한 오버헤드 등의 문제점을 내포하고 있다. 따라서 본 논문에서는 이런 문제점을 좀 더 보완하면서 Mobile IP를 사용하는 이동호스트에게 IP 멀티캐스트를 제공하는 효과적인 프로토콜을 제안한다. 호스트의 이동성을 적극 반영하여 유동적으로 멀티캐스트 포워더(Multicast Forwarder)를 선정함으로서 데이터 전송 경로의 단축, 중복되는 데이터 전송의 감소와 같은 효과를 얻을 수 있고 그 결과를 시뮬레이션을 통하여 확인해 본다.

  • PDF

Implementation of Integrated Metadata Framework Based on METS Analysis (METS 분석기반 통합메타데이터 프레임워크 구현)

  • Min, Byoung-Won;Oh, Yong-Sun
    • The Journal of the Korea Contents Association
    • /
    • v.11 no.12
    • /
    • pp.60-70
    • /
    • 2011
  • Conventional content management systems are independently developed for a specific field in general. Therefore usage of contents for the CMS will be limited to the corresponding CMS field. These characteristics might reveal a defect that CMS could not support effectively in exchange and sharing of information between CMSs. On the other hand, metadata standardization shows big differences in method and representation for the fields of CMS because all metadata standardizations are variously performed according to applications of them. There are lots differences that make interoperability between CMSs impossible. In this paper, we propose a novel metadata schema based on METS(metadata encoding and transmission standard) so that metadata standardization can be fulfilled in reality and solved the problem of duplicated contents created from different CMSs. This framework of integrated metadata proposed here can offer an interoperability between contents created by different CMSs, and discard duplicated contents. As a result of the proposed technology, we obtain 0.5% duplication rate from traditional 10.3%. In addition the filtering ability of duplicated contents shows from 92% to 96%, which proves the effectiveness and stability of the proposed technology.

Non-Duplication Loading Method for supporting Spatio-Temporal Analysis in Spatial Data Warehouse (공간 데이터웨어하우스에서 시공간 분석 지원을 위한 비중복 적재기법)

  • Jeon, Chi-Soo;Lee, Dong-Wook;You, Byeong-Seob;Lee, Soon-Jo;Bae, Hae-Young
    • Journal of Korea Spatial Information System Society
    • /
    • v.9 no.2
    • /
    • pp.81-91
    • /
    • 2007
  • In this paper, we have proposed the non-duplication loading method for supporting spatio-temporal analysis in spatial data warehouse. SDW(Spatial Data Warehouse) extracts spatial data from SDBMS that support various service of different machine. In proposed methods, it extracts updated parts of SDBMS that is participated to source in SDW. And it removes the duplicated data by spatial operation, then loads it by integrated forms. By this manner, it can support fast analysis operation for spatial data and reduce a waste of storage space. Proposed method loads spatial data by efficient form at application of analysis and prospect by time like spatial mining.

  • PDF