• Title/Summary/Keyword: 캐시 데이터

Search Result 256, Processing Time 0.029 seconds

Broadcasting study for Efficient Cache Consistency in Mobile Computing environments. (이동컴퓨팅 환경에서의 효율적인 캐쉬 일관성을 위한 방송기법 연구)

  • 강무경;정병수;김대호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.202-204
    • /
    • 2004
  • 최근 이동컴퓨팅(Mobile Computing) 환경에서의 잦은 접속 단절로 인한 클라이언트 캐시 일관성(consistency) 문제를 해결하기 위한 방법과 함께 통신 대역과 에너지의 제약을 고려한 연구가 진행되고 있다. 이러한 캐시 유지 방법의 한 분야로서 방송(Broadcasting)에 대한 연구가 진행 중이다. 그러나 기존의 무효화 보고에 대한 연구는 서버에서의 갱신 정도와 상관없이 전송되기 이전 일정 시간동안의 서버갱신에 대한 정보만을 포함한다. 이러한 전송기법은 다수의 클라이언트가 필요로 하면서 갱신정도가 빈번한 데이터에는 적합한 방송 방법이 아니다. 본 논문은 이 같은 단정을 보안하기 위해 자주 갱신되는 데이터의 빈도 수에 따라 데이터를 방송하고 클라이언트의 요청에 의해서 데이터 방송빈도 수를 변경하여 클라이언트가 특정 데이터의 응답시간을 최소화 할 수 있도록 하는 방안을 제시하였다.

  • PDF

Speed Up of OLAP Query response time By Chunk-based Caching Scheme In Shared nothing Structure (Shared nothing 구조하에서 Chunk-based Caching 전략에 의한 OLAP Query response time의 속도향상)

  • 엄준식;정병수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.135-137
    • /
    • 1999
  • 현재 의사결정 시스템을 위한 데이터 웨어하우스는 데이터베이스 분야에서 비약적인 발전을 해오고 있다. 이 분야에서 중요한 사항은 사용자의 질의에 대한 응답시간이다. 사용자로부터 질의가 요구되면 과거의 많은 데이터를 분석하여 적절한 시간 내에 분석결과를 되돌려 줄 수 있어야 하는데 데이터 웨어하우스의 특성상 대용량의 데이터를 저장하고 분석 시에 많은 데이터를 검색해야 하므로 질의 응답시간에 많은 시간이 소요된다. 이 논문에서는 Chunk based caching 기법에 의해서 새로이 요구되는 질의에 대해 이미 메모리에 캐시 되어진 내용을 이용하는 방식을 통해 디스크의 I/O 횟수를 줄임으로서 질의 응답시간을 단축시키는 기법을 소개한다. 또한 chunk miss에 대한 처리를 병렬로 수행함으로써 메모리에 캐시되지 않은 내용을 디스크로부터 로드하는 시간을 단축시키는 방법도 아울러 소개한다.

  • PDF

An Efficient Spatial Data Cache Algorithm for a Map Service in Mobile Environment (모바일 환경에서 지도 서비스를 위한 효율적인 공간 데이터 캐시 알고리즘)

  • Moon, Jin-Yong
    • Journal of Digital Contents Society
    • /
    • v.16 no.2
    • /
    • pp.257-262
    • /
    • 2015
  • Recently, the interests of mobile GIS technology is increasing with the spread of wireless network, the improvement of mobile device's performances, and the growth of demands about mobile services. Providing services in a wireless environment with existing wired-based GIS solutions have many limitations such as slow communication, processing rates and screen size. In this paper, we propose a cache algorithm on client side to solve the above problems. The proposed algorithm demonstrates the performance improvement over known studies by utilizing unit time and spatial proximity. In addition, this paper conducts a performance evaluation to measure the improvement in algorithm efficiency and analyzes the results of the performance evaluation. When spatial data queries are conducted, according to our performance evaluation, hit rate has been improved over the existing algorithms.

Cache Replacement Policy Based on Dynamic Counter for High Performance Processor (고성능 프로세서를 위한 카운터 기반의 캐시 교체 알고리즘)

  • Jung, Do Young;Lee, Yong Surk
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.4
    • /
    • pp.52-58
    • /
    • 2013
  • Replacement policy is one of the key factors determining the effectiveness of a cache. The LRU replacement policy has remained the standard for caches for many years. However, the traditional LRU has ineffective performance in zero-reuse line intensive workloads, although it performs well in high temporal locality workloads. To address this problem, We propose a new replacement policy; DCR(Dynamic Counter based Replacement) policy. A temporal locality of workload dynamically changes across time and DCR policy is based on the detection of these changing. DCR policy improves cache miss rate over a traditional LRU policy, by as much as 2.7% at maximum and 0.47% at average.

A Client Cache Consistency Method using Information of Transaction Operations (트랜잭션의 연산정보를 이용한 클라이언트 캐시 일관성 유지 기법)

  • Yu, Je-Hyeok;Jo, Seong-Ho;Jeong, Il-Yeong;Hwang, Jong-Seon
    • Journal of KIISE:Databases
    • /
    • v.27 no.4
    • /
    • pp.671-681
    • /
    • 2000
  • 클라이언트-서버(Client-Server) 데이터베이스 환경에서 병목현상의 해결책으로 클라이언트캐시(Client cache)를 사용할 수 있다. 여러 클라이언트들이 같은 데이터베이스의 일부를 캐시한 복사본을 사용할 때, 다른 클라이언트들과 서버간에 일관성 유지를 보장해주어야 한다. 캐시의 일관성을 유지하기 위한 여러 가지 알고리즘들이 제안되어왔다. 그 중에서 O2PL(Optimistic Two Phase Locking) 기법은 동시성을 증가시킬 수 있는 주요 장점이 있다. 그러나 O2PL 알고리즘은 트랜잭션이 완료(commit) 연산을 요구하는 시점에서 접근한 캐시데이터의 일관성을 위한 작업이 시작되므로 최종적인 완료까지는 지연이 발생하게된다. 이때 다른 클라이언트에서 잠금 충돌(lock conflict)에 의해 전역 교착상태(global deadlock)가 발생한다면 블락(block)되어 지연되는 시간은 더욱 증가하게된다. 본 논문에서는 향상된 O2PL 기법으로 PN(Preemption by Notification)-O2PL 기법을 제안한다. 이 접근에서는 O2PL의 특성으로 얻을 수 있는 연산정보를 관련된 다른 트랜잭션에게 통지(notification)로 사용하고 제시한 조건에 해당할 경우 상대 자원을 바로 사용할 수 있게 한다. 이 조건은 대부분의 전역 교착 상태에 해당하는 두 트랜잭션간의 교착상태를 조기에 신속히 감지할 수 있게 하여 트랜잭션 완료의 지연을 감소시키게 한다. PN-O2PL 알고리즘이 기존의 O2PL기법보다 빠른 응답시간을 얻을 수 있음을 모의 실험을 통하여 보인다.

  • PDF

Performance Evaluation of SSD Cache Based on DM-Cache (DM-Cache를 이용해 구현한 SSD 캐시의 성능 평가)

  • Lee, Jaemyoun;Kang, Kyungtae
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.3 no.11
    • /
    • pp.409-418
    • /
    • 2014
  • The amount of data located in storage servers has dramatically increased with the growth in cloud and social networking services. Storage systems with very large capacities may suffer from poor reliability and long latency, problems which can be addressed by the use of a hybrid disk, in which mechanical and flash memory storage are combined. The Linux-based SSD(solid-state disk) uses a caching technique based on the DM-cache utility. We assess the limitations of DM-cache by evaluating its performance in diverse environments, and identify problems with the caching policy that it operates in response to various commands. This policy is effective in reducing latency when Linux is running in native mode; but when Linux is installed as a guest operating systems on a virtual machine, the overhead incurred by caching actually reduces performance.

Design of an Asynchronous Instruction Cache based on a Mixed Delay Model (혼합 지연 모델에 기반한 비동기 명령어 캐시 설계)

  • Jeon, Kwang-Bae;Kim, Seok-Man;Lee, Je-Hoon;Oh, Myeong-Hoon;Cho, Kyoung-Rok
    • The Journal of the Korea Contents Association
    • /
    • v.10 no.3
    • /
    • pp.64-71
    • /
    • 2010
  • Recently, to achieve high performance of the processor, the cache is splits physically into two parts, one for instruction and one for data. This paper proposes an architecture of asynchronous instruction cache based on mixed-delay model that are DI(delay-insensitive) model for cache hit and Bundled delay model for cache miss. We synthesized the instruction cache at gate-level and constructed a test platform with 32-bit embedded processor EISC to evaluate performance. The cache communicates with the main memory and CPU using 4-phase hand-shake protocol. It has a 8-KB, 4-way set associative memory that employs Pseudo-LRU replacement algorithm. As the results, the designed cache shows 99% cache hit ratio and reduced latency to 68% tested on the platform with MI bench mark programs.

Cache Sensitive T-tree Main Memory Index for Range Query Search (범위질의 검색을 위한 캐시적응 T-트리 주기억장치 색인구조)

  • Choi, Sang-Jun;Lee, Jong-Hak
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.10
    • /
    • pp.1374-1385
    • /
    • 2009
  • Recently, advances in speed of the CPU have for out-paced advances in memory speed. Main-memory access is increasingly a performance bottleneck for main-memory database systems. To reduce memory access speed, cache memory have incorporated in the memory subsystem. However cache memories can reduce the memory speed only when the requested data is found in the cache. We propose a new cache sensitive T-tree index structure called as $CST^*$-tree for range query search. The $CST^*$-tree reduces the number of cache miss occurrences by loading the reduced internal nodes that do not have index entries. And it supports the sequential access of index entries for range query by connecting adjacent terminal nodes and internal index nodes. For performance evaluation, we have developed a cost model, and compared our $CST^*$-tree with existing CST-tree, that is the conventional cache sensitive T-tree, and $T^*$-tree, that is conventional the range query search T -tree, by using the cost model. The results indicate that cache miss occurrence of $CST^*$-tree is decreased by 20~30% over that of CST-tree in a single value search, and it is decreased by 10~20% over that of $T^*$-tree in a range query search.

  • PDF

Hybrid storage system for multimedia streaming server using SSD and HDD (멀티미디어 스트리밍 서버를 위한 SSD와 HDD 혼합 스토리지 구조)

  • Kim, Sun-Woo;Mun, Ji-Sung;Ki, An-Ho;Kang, Soo-Yong
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.346-349
    • /
    • 2011
  • SSD를 멀티미디어 스트리밍 서버 환경에서 저장매체로 사용하기 위한 연구가 최근 활발하게 일어나고 있으나, 아직 비싼 가격을 갖는 SSD의 단점으로 인해 HDD를 온전히 대체하는 방향으로는 진행되지 못하고 있다. 그 대안으로 HDD와 함께 사용하면서 상대적으로 더 빠른 읽기 성능을 활용하여 읽기 캐시로 사용하고자 하는 방향으로 진행되고 있다. 본 논문에서는 SSD를 HDD의 읽기 캐시로 사용하면서 기존의 방식과는 달리 데이터의 전부를 SSD 또는 HDD에 두는 모델을 사용하지 않고, 멀티미디어 데이터의 일부를 SSD에, 그리고 나머지를 HDD에 두는 모델을 제안한다. 이 모델은 스트리밍 환경을 고려하여 빠른 초기 반응을 필요로 하는 멀티미디어 데이터의 앞 부분을 더 빠른 속도의 SSD를 통해 서비스하고, SSD가 서비스를 수행하는 동안 HDD에서 나머지 부분을 서비스함으로써 빠른 초기 반응 시간과 함께 두 저장매체 모두의 대역폭을 최대로 사용할 수 있는 방법을 제안한다.

Scalable Data Management Using User-Based Caching and Prefetching in Distributed Virtual Environments (사용자 기반의 캐싱과 프리패칭을 이용한 분산 가상 환경하에서의 확장성 있는 데이터 관리 기법)

  • 박성주;이동만;한승현;임민규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.697-699
    • /
    • 2001
  • 가상환경에서의 실시간 상호작용을 지원하기 위해 가상세계의 데이터를 서버에서 클라이언트로 복제 해놓는 방법이 쓰여지고 있다. 효과적인 복제를 위해서는 두 가지 기법 - 우선 순위기반의 객체 전송과 캐싱 및 프리패칭 기법이 쓰이고 있다. 기존의 캐시와 프리패칭 기법들은 사용자와 객체간의 지역적 관계를 이용하고 있지만, 이는 어떤 종류의 객체가 사용자에게 더 중요한 지를 결정할 수 없는 단점이 있다. 본 연구에서는 지역적 관계 뿐 아니라 개별 사용자의 객체에 대한 관심도로부터 발생하는 객체에 대한 우선 순위를 이용하여 사용자 기반의 캐싱과 프리패칭을 사용하는 분산 가상환경 하에서의 확장성 있는 데이터 관리 기법을 제안한다. 또한 이 기법에서는 사용자의 행동 모드를 구분함으로써 더욱 높은 캐시 적중 비율을 얻을 수 있다.

  • PDF