• 제목/요약/키워드: cache scheme

검색결과 273건 처리시간 0.023초

Design and analytical evaluation of a fuzzy proxy caching for wireless internet

  • Bae, Ihn-Han
    • Journal of the Korean Data and Information Science Society
    • /
    • 제20권6호
    • /
    • pp.1177-1190
    • /
    • 2009
  • In this paper, we propose a fuzzy proxy cache scheme for caching web documents in mobile base stations. In this scheme, a mobile cache model is used to facilitate data caching and data replication. Using the proposed cache scheme, the individual proxy in the base station makes cache decisions based solely on its local knowledge of the global cache state so that the entire wireless proxy cache system can be effectively managed without centralized control. To improve the performance of proxy caching, the proposed cache scheme predicts the direction of movement of mobile hosts, and uses various cache methods for neighboring proxy servers according to the fuzzy-logic-based control rules based on the membership degree of the mobile host. The performance of our cache scheme is evaluated analytically in terms of average response delay and average energy cost, and is compared with that of other mobile cache schemes.

  • PDF

효율적인 버퍼 캐시 관리를 위한 동적 캐시 분할 블록교체 기법 (Dynamic Cache Partitioning Strategy for Efficient Buffer Cache Management)

  • 진재선;허의남;추현승
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.35-44
    • /
    • 2003
  • The effectiveness of buffer cache replacement algorithms is critical to the performance of I/O systems. In this paper, we propose the degree of inter-reference gap (DIG) based block replacement scheme that retains merits of the least recently used (LRU) such as simple implementation and good cache hit ratio (CHR) for general patterns of references, and improves CHR further. In the proposed scheme, cache blocks with low DIGs are distinguished from blocks with high DIGs and the replacement block is selected among high DIGs blocks as done in the low inter-reference recency set (LIRS) scheme. Thus, by having the effect of the partitioning the cache memory dynamically based on DIGs, CHR is improved. Trace-driven simulation is employed to verified the superiority of the DIG based scheme and shows that the performance improves up to about 175% compared to the LRU scheme and 3% compared to the LIRS scheme for the same traces.

  • PDF

Reuse Information based Thrashing Resistant Cache Management Scheme

  • Sim, Gyu Yeon;Kim, Cheol Hong
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권3호
    • /
    • pp.9-16
    • /
    • 2017
  • In recent computing systems, LRU replacement policy has been widely used because it can be simply implemented and applicable to most programs. However, if the working set size of the program is bigger than the actual cache size, LRU replacement policy may occur thrashing problem. Thrashing problem means that cache blocks are consistently replaced without re-referencing in the cache. This paper proposes a new cache management scheme to solve the thrashing problem in the second-level cache. The proposed scheme measures per set reuse frequency using EAF structure to find thrashing sets. When the cache miss occurs, it tests whether the address of the missed block is stored or not. If the address of the missed block is stored, it means that the recently evicted block is re-requested, so the reuse frequency is predicted high. In this case, the corresponding counter of the set is increased. When the counter value is bigger than the threshold value, we assume that the corresponding set shows high reuse frequency. The proposed scheme assigns the set with high reuse frequency to the additional small size cache to keep the blocks in the cache for a long time. Our experimental results show that the proposed scheme improves the IPC by 3.81% on average.

모바일 P2P 네트워크에서 피어의 연결성을 고려한 그룹 기반 캐시 공유 기법 (Group-based Cache Sharing Scheme Considering Peer Connectivity in Mobile P2P Networks)

  • 김재구;윤수용;임종태;이석희;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제14권10호
    • /
    • pp.20-31
    • /
    • 2014
  • 모바일 P2P 네트워크에서 사용자 요청을 효과적으로 처리하기 위해 캐시 공유 기법들이 연구되고 있다. 본 논문에서는 모바일 P2P 네트워크에서 피어의 연결성에 기반을 둔 클러스터를 구축하여 캐시를 공유하는 기법을 제안한다. 제안하는 기법은 연결성이 오랫동안 유지될 수 있는 피어들을 하나의 클러스터로 구성하여 캐시를 공유한다. 클러스터 내부에 있는 피어들의 캐시를 하나로 사용함으로써 데이터의 중복을 감소시키고 캐시 공간을 효율적으로 사용한다. 또한, 캐시 공간을 데이터 캐시와 임시 캐시 두 부분으로 분할하여 사용한다. 임시 캐시를 활용하여 클러스터의 토폴로지가 변경되거나 캐시 데이터 교체 시, 지연시간을 감소시킬 수 있다. 일반적인 기법은 협력적 캐시 처리 절차를 통해 질의가 전달되지만 통신비용을 줄이기 위해 1-홉 피어 캐시확인과 클러스터 헤더로 가는 경로에 있는 피어의 캐시를 확인한다. 성능 평가 결과 제안하는 기법이 기존 기법에 비해 캐시 적중률도 높고 지연시간을 감소시키는 것을 확인할 수 있었다.

적응력있는 블록 교체 기법을 위한 효율적인 버퍼 할당 정책 (Efficient Buffer Allocation Policy for the Adaptive Block Replacement Scheme)

  • 최종무;조성제;노삼혁;민상렬;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권3호
    • /
    • pp.324-336
    • /
    • 2000
  • 본 논문에서는 디스크 입출력 시스템의 성능을 향상시키기 위한 효율적인 버퍼 관리 기법을 제시한다. 본 기법은 사용자 수준의 정보 없이 블록의 속성과 미래 참조 거리간의 관계를 기반으로 각 응용의 블록 참조 패턴을 자동으로 발견하고, 발견된 참조 패턴에 적합한 최적 블록 교체 기법을 적용한다. 또한, 응용이 참조하는 블록이 버퍼 캐쉬에 없어 새로운 버퍼 블록이 요구될 때, 응용별로 블록 참조 패턴에 따라 버퍼 예상 적중률을 분석하여 이를 기반으로 전체 버퍼 캐쉬의 적중률이 극대화되도록 해 주는 버퍼 할당 기법을 제안한다. 이러한 모든 과정은 시스템 수준에서 자동으로 그리고 온라인으로 수행된다. 제시한 기법의 성능을 평가하기 위해 블록 참조 트레이스를 이용해 모의 실험을 수행하였다. 실험 결과 제시한 기법은 적은 오버헤드로 기존의 블록 교체 기법들보다 캐쉬 블록의 적중률을 크게 향상시켜 주었다.

  • PDF

동작 분석을 통한 비휘발성 메모리에 대한 Wear-out 공격 방지 기법 (Exploiting Memory Sequence Analysis to Defense Wear-out Attack for Non-Volatile Memory)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제21권4호
    • /
    • pp.86-91
    • /
    • 2022
  • Cache bypassing is a scheme to prevent unnecessary cache blocks from occupying the capacity of the cache for avoiding cache contamination. This method is introduced to alleviate the problems of non-volatile memories (NVMs)-based memory system. However, the prior works have been studied without considering wear-out attack. Malicious writing to a small area in NVMs leads to the failure of the system due to the limited write endurance of NVMs. This paper proposes a novel scheme to prolong the lifetime with higher resistance for the wear-out attack. First, the memory reference pattern is found by modified reuse distance calculation for each cache block. If a cache block is determined as the target of the attack, it is forwarded to higher level cache or main memory without updating the NVM-based cache. The experimental results show that the write endurance is improved by 14% on average and 36% on maximum.

데이터 망각을 활용한 비휘발성 메모리 기반 파일 캐시 관리 기법 (Forgetting based File Cache Management Scheme for Non-Volatile Memory)

  • 강동우;최종무
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.972-978
    • /
    • 2015
  • 비휘발성 메모리는 바이트 단위 접근과 비휘발성을 지원한다. 이러한 특성들은 비휘발성 메모리를 캐시, 메모리, 디스크와 같은 메모리 계층 구조 가운데 하나의 영역으로 사용을 가능케 한다. 비휘발성 메모리의 흥미로운 특성은 데이터 보존 기간이 실제로는 제한적인 기간을 가지고 있다는 것이다. 게다가 데이터 보존 기간과 쓰기 지연간의 트레이드오프가 존재 한다. 본 논문에서는 이를 활용하여 비휘발성 메모리를 파일 캐시로 사용하는 새로운 관리 기법을 제안한다. 제안하는 기법은 기존의 캐시 관리 기법과는 반대로 짧은 데이터 보존 시간으로 데이터를 저장하고 쓰기 성능을 개선한다. 제안하는 기법은 LRU 대비 평균 접근 지연 시간을 최대 31%, 평균 24.4%로 감소시킴을 보인다.

SSD 캐시를 위한 이웃 프리페칭 기법 (A Neighbor Prefetching Scheme for a Hybrid Storage System)

  • 백승훈
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권5호
    • /
    • pp.40-52
    • /
    • 2018
  • 플래시 기반의 SSD(solid state drive)를 HDD(hard disk drive)의 2차 캐시로 사용하는 기술이 많이 연구되었다. SSD를 이용한 캐시에 대한 캐시 교체 정책 및 관리에 관한 연구뿐만 아니라 프리페칭 연구도 필요하게 되었다. 본 논문은 SSD를 스토리지급 캐시로 사용하는 시스템을 위한 프리페칭 기술을 제시한다. 이 프리페칭 기술은 스토리지급 크기의 캐시에 맞게 대규모의 프리페칭이며, 단기적인 프리페칭은 1차 캐시인 주메모리에서 수행되므로 장기적 스케줄링을 기반한 프리페칭이며, 기존 프리페칭은 읽기만을 고려하였지만, 지속 가능한 SSD 캐시를 위해 쓰기 요청도 고려한 프리페칭이다. 어떤 사용자의 14일간의 입출력에서, 64GB 용량의 SSD에 프리페칭 용량이 4GiB일 때에, 2.3%에서 17.8%의 캐시 적중률 향상을 보였다. 본 기술은 구현이 간단하여 스토리지급 캐시 시스템에 쉽게 적용할 수 있다.

모바일 환경에서 타임스탬프 트리 기반 캐시 무효화 보고 기법 (A Timestamp Tree-based Cache Invalidation Report Scheme in Mobile Environments)

  • 정성원;이학주
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권3호
    • /
    • pp.217-231
    • /
    • 2007
  • 이동 컴퓨팅(Mobile Computing)환경에서 빈번한 접속 단절은 클라이언트의 캐시 일관성(Consistency)문제로 직결된다. 이러한 캐시 일관성 문제를 해결하기 위해 무효화 보고(Invalidation Report)에 관한 연구가 진행되고 있다. 그러나 기존의 무효화 보고 기법은 서버 측의 데이타의 수가 많아지거나, 갱신(Update)되는 데이타의 양이 증가하게 되면 무효화 보고 기법의 크기의 증가 및 캐시 효율성의 저하를 가지고 온다. 또한 캐시 전체의 무효화를 확인하는 보고 기법은 선택적 청취(Selective tuning)를 지원하지 못한다. 본 논문에서는 이러한 기존 방식의 문제점을 해결하며 효율성을 개선한 무효화 보고 기법으로써 TTCI(Timestamp Tree-based Cache Invalidation scheme)를 제안한다. 갱신된 데이타의 타임스탬프를 이용하여 타임스탬프 트리를 구성하고 데이타의 아이디를 갱신된 순서대로 나열하여 무효화 보고를 만든다. 이를 활용하게 되면 각 클라이언트는 자신의 단절(Disconnect)된 시점에 맞는 정보를 확인하여 캐시의 이용률을 증가 시킬 수 있다. 또한 트리 구조를 이용하여 선택적 청취를 가능하게 함으로써 클라이언트의 자원 소비를 줄일 수 있다. 이러한 본 구조의 효율성을 검증하기 위해 기존의 기법인 DRCI(Dual-Report Cache Invalidation)와 성능비교를 실시한다.

Low Power Scheme Using Bypassing Technique for Hybrid Cache Architecture

  • Choi, Juhee
    • 반도체디스플레이기술학회지
    • /
    • 제20권4호
    • /
    • pp.10-15
    • /
    • 2021
  • Cache bypassing schemes have been studied to remove unnecessary updating the data in cache blocks. Among them, a statistics-based cache bypassing method for asymmetric-access caches is one of the most efficient approach for non-voliatile memories and shows the lowest cache access latency. However, it is proposed under the condition of the normal cache system, so further study is required for the hybrid cache architecture. This paper proposes a novel cache bypassing scheme, called hybrid bypassing block selector. In the proposal, the new model is established considering the SRAM region and the non-volatile memory region separately. Based on the model, hybrid bypassing decision block is implemented. Experiments show that the hybrid bypassing decision block saves overall energy consumption by 21.5%.