• Title/Summary/Keyword: 중복 데이터

Search Result 1,019, Processing Time 0.033 seconds

Multicast Routing Protocol in Mobile Networks (이동네트워크 환경에서의 멀티캐스트 라우팅 프로토콜)

  • Sin, Hui-Suk;Seo, Yeong-Ju;An, Seong-Ok
    • Journal of KIISE:Information Networking
    • /
    • v.27 no.4
    • /
    • pp.418-428
    • /
    • 2000
  • 이동호스트를 지원하는 네트워크에서의 멀티캐스트 라우팅은 그룹 멤버의 빈번한 위치 변화를 가져와서 기존의 고정 호스트를 기본으로 설계된 멀티캐스트 라우팅 프로토콜을 적용할 경우 많은 문제점을 발생시킨다. 이런점에서 Mobile-IP를 유니캐스트 라우팅 방식으로 사용하는 이동환경에서의 이동호스트를 위한 몇가지 멀티캐스팅 방법이 제시되었으나 이 방법들 또한 비최적 경로로의 데이터 전송, 비효율적인 데이터 중복 전송, 그리고 빈번한 멀티캐스트 트리의 재구성으로 인한 오버헤드 등의 문제점을 가지고 있다. 따라서 본 논문에서는 이런 문제점들을 구찰하고 이 문제점들을 보와하는 효과적인 멀티캐스트 라우팅 프로토콜을 제안하고자 한다. 제시하는 프로토콜은 Mobile-IP를 사용하는 이동호스트에게 멀티캐스트 서비스를 지원하는 멀티캐스트 에이전트와 이들 멀티캐스트 에이전트들 중에서 선택된 멀티캐스트 포워더를 이용하여 동작한다 이동호스트는 이웃한 멀티캐스트 포워더로부터 데이터를 터널링받거나 또는 로컬네트워크에 위치한 멀티캐스트 라우터로부터 멀티캐스트 데이터를 직접전송받게 된다. 따라서 멀티캐스트 데이터의 전송 경로를 단축시키고 중복되는 데이터 및 터널링으로 전송되는 데이터를 감소시킴으로써 전체 네트워크 트래픽량을 줄이는 효과를 얻을 수 있다. 제시하는 프로토콜의 성능은 다양한 환경의 시뮬레이션을 통하여 확인해 본다.

  • PDF

Technical analysis of Cloud Storage for Cloud Computing (클라우드 컴퓨팅을 위한 클라우드 스토리지 기술 분석)

  • Park, Jeong-Su;Bae, Yu-Mi;Jung, Sung-Jae
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.17 no.5
    • /
    • pp.1129-1137
    • /
    • 2013
  • Cloud storage system that cloud computing providers provides large amounts of data storage and processing of cloud computing is a key component. Large vendors (such as Facebook, YouTube, Google) in the mass sending of data through the network quickly and easily share photos, videos, documents, etc. from heterogeneous devices, such as tablets, smartphones, and the data that is stored in the cloud storage using was approached. At time, growth and development of the globally data, the cloud storage business model emerging is getting. Analysis new network storage cloud storage services concepts and technologies, including data manipulation, storage virtualization, data replication and duplication, security, cloud computing core.

Performance Evaluation of Clustering Algorithms for Fixed-Grid Spatial Index (고정 그리드 공간 색인을 위한 클러스터링 알고리즘의 성능 평가)

  • 유진영;김진덕;김동현;홍봉희;김장수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.32-134
    • /
    • 1998
  • 공간 색인의 하나인 그리드 파일은 공간 데이터 영역을 격자 형태의 셀로 분할하여 구성하는데 특히, 셀들의 크기가 모두 동일한 값으로 고정되어진 것을 고정 그리드(fixed grid)라고 한다. 셀들의 크기가 고정된으로 인해 샐 분할선 상에 객체가 존재하는 경우가 자주 발생하게 되고 이러한 객체들은 하나 이상의 셀에 의해 중복으로 참조된다. 중복 참조 객체는 1/10 시간을 증가시켜 질의 처리 시 성능 저하의 주요한 원인이 된다. 따라서 중복 객체를 효율적으로 처리 할 수 있는 클러스터링 알고리즘의 고안이 필요하다. 이 논문에서는 중복 참조 객체를 처리하기 위한 객체 클러스터링(Object clustering)과 셀 단위로 클러스터하기 위한 셀 클러스터링(Cell clustering) 알고리즘을 구현한다. 그리고 공간 질의 수행 시에 각 클러스터기법들에 대한 성능을 평가한다.

Design of Main Memory Database Replication System (주기억장치 데이터베이스 중복 시스템 설계)

  • Choi, Jung-Hyun;Choi, Woo-Young;Jin, Seong-Il;Yeom, Tai-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11c
    • /
    • pp.1883-1886
    • /
    • 2002
  • 본 논문은 많은 종류의 인터넷 정보시스템에서 데이터의 고속 검색과 저장 및 처리를 지원하는 주기억장치 데이터베이스 시스템을 중복하여 관리할 수 있는 중복 주기억장치 데이터베이스 시스템의 요구사항에 대해 알아본다. 아울러, 자료의 고속처리라는 측면을 주로 고려하여 중복되어 관리되는 주기억장치 데이터베이스 시스템의 아키텍쳐 및 트랜잭션 수행구조를 설계한다.

  • PDF

Performance Analysis of Replicated Servers Allocation Strategies in Mobile Computing (이동 컴퓨팅 환경에서 통신 비용을 최소화하는 중복서버 위치 할당 기법의 성능 분석)

  • 임성화;김재훈
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.607-609
    • /
    • 2001
  • 셀룰러 기반의 이동 컴퓨팅환경에서는 이동 호스트(MH)의 위치와 상태관리를 위하여 디폴트 서버기법이 널리 사용되는데, 이동 호스트로 전송되는 데이터는 먼저 디폴트 서버에 문의하여 해당 삠 가 위치하는 로컬 서버로 전송된다. 디폴트 서버기법에 기반을 둔 SDN(single Default Notification)기법에서는 클라이언트가 MH 와의 연결요청을 하면 쿼리 서버를 통해 해당 디폴트 서버에 MH의 위치 및 상태를 문의한 후 통신이 이루어진다. 그러나 쿼리횟수가 많고 디폴트 서버와의 거리가 멀거나 기지국외 수가 많을 경우 디폴트 서버와의 통신 오버헤드가 커지며, 디폴트 서버에 결함이 발생할 경우 해당 MH 와의 연결이 불가능해진다. 디폴트 서버를 여러 개로 중복 시킬 경우 위와 같은 문제점을 경감시키고 디폴트 서버와의 통신 비용을 줄일 수 있다. 본 논문에서는 통신 환경에 따른 디폴트 서버의 최적의 중복 개수와 중복 위치를 구하는 방법을 제시하였고, 시뮬레이션을 통하여 수학적 방법이 유용함을 보였다.

  • PDF

A Study on the Multivariate Stratified Random Sampling with Multiplicity (중복수가 있는 다변량 층화임의추출에 관한 연구(층별로 독립인 경우의 배분문제))

  • Kim, Ho-Il
    • Journal of the Korean Data and Information Science Society
    • /
    • v.10 no.1
    • /
    • pp.79-89
    • /
    • 1999
  • A counting rule that allows an element to be linked to more than one enumeration unit is called a multiplicity counting rule. Sample designs that use multiplicity counting rules are called network samples. Defining a network to be a set of observation units with a given linkage pattern, a network may be linked with more than one selection unit, and a single selection unit may be linked with more than one network. This paper considers allocation for multivariate stratified random sampling with multiplicity.

  • PDF

Update Propagation of Replicated Data in a Peer-to-Peer Environment (Peer-to-Peer 환경에서 중복된 데이타의 갱신 전파 기법)

  • Choi, Min-Young;Cho, Haeng-Rae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.13-15
    • /
    • 2005
  • P2P(Peer-to-Peer) 시스템은 대용량의 데이타를 공유하는데 유용하며, 네트워크 구조에 따라 중앙 집중형, 구조적 분산형, 그리고 비구조적 분산형으로 분류된다. 이 중 Gnutella와 같은 비구조적 분산형 P2P 시스템은 확장성과 신뢰성 측면에서 장점을 갖지만, 참여하는 노드의 수가 증가함에 따라 원하는 자원을 액세스하는 비용도 증가하는 문제를 가진다. 데이터 중복을 이용해 이러한 문제를 해결할 경우 중복된 데이타들의 일관성 유지를 위한 기법이 필요하다. 본 논문에서는 특정 노드가 갱신한 데이타를 중복된 사본을 저장하고 있는 다른 노드에 전파하기 위한 하이브리드 push/pull 기반의 갱신 전파 기법을 제안한다.

  • PDF

Design and Implementation of Disk Archive System Exploiting De-duplication Scheme (데이터 중복 제거 기반의 디스크 아카이브 시스템 설계 및 구현)

  • Kang, Sung-Woon;Jung, Ho-Min;Ko, Young-Woong;Lee, Jeong-Gun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.204-206
    • /
    • 2011
  • 기존의 TAR와 같은 아카이브 포맷은 파일의 중복을 제거하는 기능이 포함되지 않아 리눅스 배포 미러와 같이 버전단위로 저장되는 시스템에서 디스크 공간의 낭비가 발생했다. 본 연구에서는 중복 제거 기능이 포함된 아카이브 포맷인 DTAR와 이를 지원하는 DTM 유틸리티를 제안하였다. 주요 아이디어는 DTAR 헤더에 SHA1 해시를 삽입하고 SHA1 해시를 노드로 하는 R-B Tree를 생성하여 중복을 검색 및 제거하는 것이다. 실험 결과 DTAR가 tar.gz보다 최대 31% 공간을 절약하고, 수행 시간도 줄어드는 것을 확인하여 효율적임을 보였다.

Multispectral Image Data Compression Using Classified Prediction and KLT in Wavelet Transform Domain (웨이블릿 영역에서 분류 예측과 KLT를 이용한 다분광 화상 데이터 압축)

  • 김태수;김승진;이석환;권기구;김영춘;이건일
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.29 no.4C
    • /
    • pp.533-540
    • /
    • 2004
  • This paper proposes a new multispectral image data compression algorithm that can efficiently reduce spatial and spectral redundancies by applying classified prediction, a Karhunen-Loeve transform (KLT), and the three-dimensional set partitioning in hierarchical trees (3-D SPIHT) algorithm in the wavelet transform (WT) domain. The classification is performed in the WT domain to exploit the interband classified dependency, while the resulting class information is used for the interband prediction. The residual image data on the prediction errors between the original image data and the predicted image data is decorrelated by a KLT. Finally, the 3-D SPIHT algorithm is used to encode the transformed coefficients listed in a descending order spatially and spectrally as a result of the WT and KLT. Simulation results showed that the reconstructed images after using the proposed algorithm exhibited a better quality and higher compression ratio than those using conventional algorithms.

An Efficient Method for Detecting Duplicated Documents in a Blog Service System (블로그 서비스 시스템을 위한 효과적인 중복문서의 검출 기법)

  • Lee, Sang-Chul;Lee, Soon-Haeng;Kim, Sang-Wook
    • Journal of KIISE:Databases
    • /
    • v.37 no.1
    • /
    • pp.50-55
    • /
    • 2010
  • Duplicate documents in blog service system are one of causes that deteriorate both of the quality and the performance of blog searches. Unlike the WWW environment, the creation of documents is reported every time in blog service system, which makes it possible to identify the original document from its duplicate documents. Based on this observation, this paper proposes a novel method for detecting duplication documents in blog service system. This method determines whether a document is original or not at the time it is stored in the blog service system. As a result, it solves the problem of duplicate documents retrieved in the search result by keeping those documents from being stored in the index for the blog search engine. This paper also proposes three indexing methods that preserve an accuracy of previous work, Min-hashing. We show most effective indexing method via extensive experiments using real-life blog data.