• Title/Summary/Keyword: 데이타 캐쉬

Search Result 83, Processing Time 0.029 seconds

Binary Tree-based Invalidation Reporting for Cache Consistency Maintenance in a Mobile Database System (이동 데이타베이스 시스템에서 캐쉬 일관성 유지를 위한 이진 트리 기반의 무효화 보고)

  • Lim, Sang-Min;Kang, Hyun-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.04a
    • /
    • pp.244-247
    • /
    • 2000
  • 이동 통신 기술의 발전으로, 이동컴퓨팅 환경에서의 데이타 서비스에 대한 수요가 증가하고 있다. 이동 호스트 내에 캐쉬가 존재할 경우, 대역폭의 절약 및 빠른 응답시간을 제공할 수 있지만, 캐쉬 일관성을 유지해야하는 부담이 생긴다. 한 셀 내에 존재하는 수 많은 이동 호스트들의 캐쉬 일관성 유지를 위해서 서버(MSS)가 캐쉬 무효화 보고를 일정시간마다 주기적으로 방송하는 방법은 효과적일 수 있다. 기존에 제시된 무효화 보고에서는 갱신된 데이타의 식별자가 사용되지만, 좀 더 적은 양의 대역폭을 소모하는 효율적인 무효화 보고가 되기 위해서는 데이타들을 그룹핑할 수 있는 방안이 연구되어야 한다. 본 논문에서는 서버의 데이타베이스를 데이타의 식별자 값을 기준으로 여러 구역으로 나누었을 때, 데이타의 갱신이 데이타베이스 내 인근 구역에서 많이 발생할 경우, 이진 트리를 기반으로 하여 효율적인 무효화 보고를 생성하는 방법을 제안하고 그 성능을 평가한다.

  • PDF

Cache Replacement Strategies considering Location and Region Properties of Data in Mobile Database Systems (이동 데이타베이스 시스템에서 데이타의 위치와 영역 특성을 고려한 캐쉬 교체 기법)

  • Kim, Ho-Sook;Yong, Hwan-Seung
    • Journal of KIISE:Databases
    • /
    • v.27 no.1
    • /
    • pp.53-63
    • /
    • 2000
  • The mobile computing service market is increasing rapidly due to the development of low-cost wireless network technology and the high-performance mobile computing devices. In recent years, several methods have been proposed to effectively deal with restrictions of the mobile computing environment such as limited bandwidth, frequent disconnection and short-lived batteries. Amongst those methods, much study is being done on the caching method - among the data transmitted from a mobile support station, it selects those that are likely to be accessed in the near future and stores them in the local cache of a mobile host. Existing cache replacement methods have some limitations in efficiency because they do not take into consideration the characteristics of user mobility and spatial attributes of geographical data. In this paper, we show that the value and the semantic of the data, which are stored in the cache of a mobile host, changes according to the movement of the mobile host. We argue it is because data that are geographically near are better suited to provide an answer to a users query in the mobile environment. Also, we define spatial location of geographical data has effect on, using the spatial attributes of data. Finally, we propose two new cache replacement methods that efficiently support user mobility and spatial attributes of data. One is based on the location of data and the other on the meaningful region of data. From the comparative analysis of the previous methods and that they improve the cache hit ratio. Also we show that performance varies according to data density using this, we argue different cache replacement methods are required for regions with varying density of data.

  • PDF

A Strategy using Updatable Message for Retaining the Cache Consistency in the Mobile Computing Environment (이동 컴퓨팅 환경에서 갱신가능 메시지를 이용한 캐쉬 일과성 유지 정책)

  • Park, Seong-Bae;Hwang, Bu-Hyun
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.7
    • /
    • pp.1694-1705
    • /
    • 1997
  • In the future mobile computing environment, it will be generalized that a mobile host with portable Laptop of Palmtop accesses to database through wireless communication channel. For solving the problems which are caused from low bandwidth of wireless communication, mobile hosts cache the datum used frequently on them. Thus the mobile hosts must always retain the cache consistency for the correctness of the cached datum. the cache consistency is mainly affected from the unrestricted host mobility and the disconnection of the communication between mobile hosts and mobile support station. In this situation, the strategy to retain efficiently cache consistency is required. In this paper, we propose a strategy using updatable message for retaining the cache consistency, in the mobile computing environment, with replicated database supporting 2 phase commit protocol. This strategy makes use of a updatable message to resolve the cache consistency problem, since mobile host crosses the boundary of cell. In using of this updatable, it find out and cache only the update data of missing invalidation message. As a result, the proposed strategy utilizes network bandwidth efficiently because it is not need to delete all the cached datum with any datum change.

  • PDF

Exploitation of Multi-Versions based on Callback Locking in a Client-Server DBMS Environment (클라이언트-서버 DBMS 환경에서 콜백 잠금 기반 다중 버전의 활용)

  • 강흠근;민준기;전석주;정진완
    • Journal of KIISE:Databases
    • /
    • v.31 no.5
    • /
    • pp.457-467
    • /
    • 2004
  • The efficiency of algorithms managing data caches has a major impact on the performance of systems that utilize client-side data caching. In these systems, two versions of data can be maintained without an additional space overhead of the server by exploiting the replication of data in the server's buffer and clients' caches. In this paper, we present a new cache consistency algorithm employing versions: Two Versions-Callback Locking (2V-CBL). Our experimental results indicate that 2V-CBL provides good performance, particularly outperforms a leading cache consistency algorithm, Asynchronous Avoidance-based Gache Consistency, when some clients run only read-only transactions.

An Energy-Delay Efficient System with Adaptive Victim Caches (선택적 희생 캐쉬를 이용한 저전력 고성능 시스템 설계 방안)

  • Kim Cheol Hong;Shim Sunghoon;Jhon Chu Shik;Jhang Seong Tae
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.32 no.11_12
    • /
    • pp.663-674
    • /
    • 2005
  • We propose a system aimed at achieving high energy-delay efficiency by using adaptive victim caches. Particularly, we investigate methods to improve the hit rates in the first level of memory hierarchy, which reduces the number of accesses to mort power consuming memory structures such as L2 cache. Victim cache is a memory element for reducing conflict misses in a direct-mapped L1 cache. We present two techniques to fill the victim cache with the blocks that have higher probability to be re-reqeusted by processor. Hit-based victim cache ks tilled with the blocks which were referenced frequently by processor. Replacement-based victim cache is filled with the blocks which were evicted from the sets where block replacements had happened frequently According to our simulations, replacement-based victim cache scheme outperforms the conventional victim cache scheme about $2\%$ on average and refutes the power consumption by up to $8\%$.

Data Prefetching Effect of the Stride Merging-Arrays Method (스트라이드 배열 병합 방법의 데이터 선인출 효과)

  • Jeong, In-Beom;Lee, Jun-Won
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.26 no.11
    • /
    • pp.1429-1436
    • /
    • 1999
  • 데이타들에 대한 선인출 효과를 얻기 위하여 캐쉬 메모리의 캐쉬 블록은 다중 워드로 구성된다. 그러나 선인출된 데이타들이 사용되지 않을 경우 캐쉬 메모리가 낭비되고 따라서 캐쉬 실패율이 증가한다. 데이타 배열 병합 방법은 캐쉬 실패 원인의 하나인 캐쉬 충돌 실패를 감소시키기 위하여 사용되고 있다. 그러나 기존의 배열 병합 방법은 유용하지 못한 데이타들을 캐쉬 블록에 선인출하는 현상을 보인다. 본 논문에서는 이러한 현상을 개선한 스트라이드 배열 병합을 제안한다. 모의시험에서 캐쉬 블록이 다중 워드로 구성된 경우 스트라이드 배열 병합은 캐쉬 충돌 실패를 감소시킬 뿐 만 아니라 유용한 데이타 선인출을 증가 시키므로 캐쉬 성능을 향상시킴을 보여준다. 또한 이렇게 향상된 캐쉬 성능은 프로세서 증가에 따른 확장성 있는 프로그램 성능을 나타낸다.Abstract The cache memory is composed of cache lines with multiple words to achieve the effect of data prefetching. However, if the prefetched data are not used, the spaces of the cache memory are wasted and thus the cache miss rate increases. The data merging-arrays method is used for the sake of the reduction of the cache conflict misses. However, the existing merging-arrays method results in the useless data prefetching. In this paper, a stride merging-arrays method is suggested for improving this phenomenon. Simulation results show that when a cache line is composed of multiple words, the stride merging-arrays method increases the cache performance due to not only the reduction of cache conflict misses but also the useful data prefetching. This enhanced cache performance also represents the more scalable performance of parallel applications according to increasing the number of processors.

Shared Caching of Spatial Data for Multiple Middleware Components (다중 미들웨어 컴포넌트를 위한 공간 데이타의 공유 캐슁 기법)

  • Park, Kyung-Mi;An, Kyoung-Hwan;Hong, Bong-Hee
    • 한국공간정보시스템학회:학술대회논문집
    • /
    • 2000.06a
    • /
    • pp.51-63
    • /
    • 2000
  • 현재 지리정보 기술의 세계적인 추세는, ISO 나 OGC 등의 국제 표준기구에서 제시하고 있는 상호 운용성을 지원하기 위한 3계층 구조의 인터넷 GIS로 나아가고 있다. 특히 OGC 에서는 인터넷 환경에서 표준 인터페이스를 통해 다양한 데이타 소스의 지리정보를 접근하여 기존의 웹 브라우저로 표현하는 구조의 웹 매핑 테스트베드를 제시하고 있다. 3계층 구조의 인터넷 GIS에서의 문제점은 각 계층간의 통신 횟수와 데이타 전송량이 많고, 미들웨어 컴포넌트에서의 데이터 변환으로 인해 속도가 저하되는 것이다. 데이타 전송량과 데이타 변환량으로 인한 문제점은 미들웨어 계층에서 공간 데이터를 캐슁함으로써 해결될 수 있다. 본 논문의 핵심 아이디어는 미들웨어 컴포넌트들 사이에 공유 캐쉬를 두고, 여러 클라이언트들이 공통적으로 접근하는 데이타를 중심으로 캐쉬를 관리하는 것이다. 본 논문에서 제시하는 기법은 질의 영역에 대해 확장된 영역을 캐슁함으로써, 하나의 클라이언트 입장에서 근접한 영역의 질의에 대한 사용자 응답 시간을 줄일 수 있다. 또한 캐쉬 교체를 위해 접근 빈도수 중심의 교체 함수를 취함으로써 여러 클라이언트들에 대해 데이타의 재사용성을 높일 수 있다.

  • PDF

A Pixel Cache Architecture with Selective Loading Scheme based on Z-test (깊이 검사 결과에 의한 선택적 적재 방법을 가지는 픽셀 캐쉬 구조)

  • 이길환;박우찬;김일산;한탁돈
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.30 no.10
    • /
    • pp.579-585
    • /
    • 2003
  • Recently most of 3D graphics rendering Processors have the pixel cache storing depth data and color data to reduce the memory latency and the bandwidth requirement. In this paper, we propose the effective pixel cache for improving the performance of a rendering processor. The proposed cache system stores the depth data selectively based on the result of Z-test and the color data are stored into the auxiliary buffer. Simulation results show that the 16Kbyte proposed cache system provides better performance than the 32Kbyte conventional cache.

Update-Risk based TTL Estimaiton in Web Caching (웹 캐슁에서 갱신 위험도 기반 TTL 추정 방식)

  • 이정준;황규영;이병석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.46-48
    • /
    • 2001
  • 웹 캐슁은 캐쉬 액새스턱 통해 웹 서버와 네트워크의 부하를 감소시켜 웹 응용을 가속화하는 중요한 기술이다. 전통적인 데이타 캐슁과 마찬가지로, 웹 캐슁은 캐쉬 일관성 유지라는 문제를 안고 있다. 그러나, 기존의 캐슁과는 달리 웹 캐슁에서는 웹 서버 데이타 갱신을 지연하여 반영하는 약 일관성이 허용된다. 이러한 조건은 TTL(time-to-live, 캐쉬 서버가 캐쉬된 데이타 아이템이 유효하다고 기대하는 시간)이 일관성 유지를 위해 사용되는 것을 허용한다. 이것은 효과적인 TTL 추정방법의 개발이 필요하도록 하였다. 그러나, 현재가지 소개된 두 가지 추정 방법(고정 TTL방법과 휴리스틱 방법)은 직관적 해석이 어렵고, 이론적인 추정근거가 빈약하다. 본 논문에서는 이러한 단점을 보완하기 위하여 확률적 분석에 기 반하여 정형적이고, 직관적인 의미를 갖는 위험도 기반 TTL 설정 방법을 제안한다. 이 방법에서는 위험도를 TTL 이내에 원본 데이타가 갱신될 확률로 정의하고, 갱신분포를 포아송 과정으로 가정한 후, 주어진 위험도를 TTL 식을 유도한다. 위험도 기반 TTL 설정 방법은 기존방법과 비교하여 위험도란 개념을 통하여 보다 직관적이고, 확률적 유도를 통하여 TTL 설정방법은 기존방법과 비교하여 위험도란 개념을 통하여 보다 직관적이고, 확률은 유도를 통하여 TTL 설정에 대한 이론적인 근거를 제공한다.

  • PDF

Storage Schemes for XML Query Cache (XML 질의 캐쉬의 저장 기법)

  • Kim, Young-Hyun;Kang, Hyun-Chul
    • Journal of KIISE:Databases
    • /
    • v.33 no.5
    • /
    • pp.551-562
    • /
    • 2006
  • XML query caching for XML database-backed Web applications began to be investigated recently. Despite its practical significance, efficiency of the storage schemes for cached query results has not been addressed. In this paper, we deal with the storage schemes for XML query cache. A fundamental problem that needs to be considered in designing an efficient storage structure for XML query cache is that there exist performance tradeoffs between the two major types of operations on a cached query result. The two are (1) retrieving the whole of it to return the query result and (2) updating just a small portion of it for its incremental refresh against the updates done to its source. We propose eight different storage schemes for XML query cache, which are categorized into three groups: (1) the schemes based on the plain text file, (2) the schemes based on the persistent DOM (PDOM) file, and (3) a scheme employing an RDBMS. We implemented all of them, and compared their performance with each other. We also compared our proposal with a storage scheme based on a current state-of-the-art XML storage scheme, showing that ours is more efficient.