• 제목/요약/키워드: Cache Replacement Scheme

검색결과 42건 처리시간 0.019초

효율적인 버퍼 캐시 관리를 위한 동적 캐시 분할 블록교체 기법 (Dynamic Cache Partitioning Strategy for Efficient Buffer Cache Management)

  • 진재선;허의남;추현승
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.35-44
    • /
    • 2003
  • The effectiveness of buffer cache replacement algorithms is critical to the performance of I/O systems. In this paper, we propose the degree of inter-reference gap (DIG) based block replacement scheme that retains merits of the least recently used (LRU) such as simple implementation and good cache hit ratio (CHR) for general patterns of references, and improves CHR further. In the proposed scheme, cache blocks with low DIGs are distinguished from blocks with high DIGs and the replacement block is selected among high DIGs blocks as done in the low inter-reference recency set (LIRS) scheme. Thus, by having the effect of the partitioning the cache memory dynamically based on DIGs, CHR is improved. Trace-driven simulation is employed to verified the superiority of the DIG based scheme and shows that the performance improves up to about 175% compared to the LRU scheme and 3% compared to the LIRS scheme for the same traces.

  • PDF

Reuse Information based Thrashing Resistant Cache Management Scheme

  • Sim, Gyu Yeon;Kim, Cheol Hong
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권3호
    • /
    • pp.9-16
    • /
    • 2017
  • In recent computing systems, LRU replacement policy has been widely used because it can be simply implemented and applicable to most programs. However, if the working set size of the program is bigger than the actual cache size, LRU replacement policy may occur thrashing problem. Thrashing problem means that cache blocks are consistently replaced without re-referencing in the cache. This paper proposes a new cache management scheme to solve the thrashing problem in the second-level cache. The proposed scheme measures per set reuse frequency using EAF structure to find thrashing sets. When the cache miss occurs, it tests whether the address of the missed block is stored or not. If the address of the missed block is stored, it means that the recently evicted block is re-requested, so the reuse frequency is predicted high. In this case, the corresponding counter of the set is increased. When the counter value is bigger than the threshold value, we assume that the corresponding set shows high reuse frequency. The proposed scheme assigns the set with high reuse frequency to the additional small size cache to keep the blocks in the cache for a long time. Our experimental results show that the proposed scheme improves the IPC by 3.81% on average.

A Video Cache Replacement Scheme based on Local Video Popularity and Video Size for MEC Servers

  • Liu, Pingshan;Liu, Shaoxing;Cai, Zhangjing;Lu, Dianjie;Huang, Guimin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권9호
    • /
    • pp.3043-3067
    • /
    • 2022
  • With the mobile traffic in the network increases exponentially, multi-access edge computing (MEC) develops rapidly. MEC servers are deployed geo-distribution, which serve many mobile terminals locally to improve users' QoE (Quality of Experience). When the cache space of a MEC server is full, how to replace the cached videos is an important problem. The problem is also called the cache replacement problem, which becomes more complex due to the dynamic video popularity and the varied video sizes. Therefore, we proposed a new cache replacement scheme based on local video popularity and video size to solve the cache replacement problem of MEC servers. First, we built a local video popularity model, which is composed of a popularity rise model and a popularity attenuation model. Furthermore, the popularity attenuation model incorporates a frequency-dependent attenuation model and a frequency-independent attenuation model. Second, we formulated a utility based on local video popularity and video size. Moreover, the weights of local video popularity and video size were quantitatively analyzed by using the information entropy. Finally, we conducted extensive simulation experiments based on the proposed scheme and some compared schemes. The simulation results showed that our proposed scheme performs better than the compared schemes in terms of hit rate, average delay, and server load under different network configurations.

콘텐츠 중심 네트워크에서 성능 향상을 위한 인기도 기반 캐시 교체 기법 (Popularity Based Cache Replacement Scheme to Enhance Performance in Content Centric Networks)

  • 우태희;박흥순;김호길
    • 한국통신학회논문지
    • /
    • 제40권11호
    • /
    • pp.2151-2159
    • /
    • 2015
  • 콘텐츠 중심 네트워크(CCN)는 기존의 IP 방식과는 다른 새로운 네트워킹 패러다임으로써 데이터를 찾는데 필요한 라우팅 정보를 콘텐츠 이름에서 찾는 방식이다. CCN은 노드마다 콘텐츠를 저장할 수 있는 캐시를 가지고 있어서 반복적인 콘텐츠 요청에 효율적으로 처리할 수 있다. 본 논문은 콘텐츠의 인기도를 활용한 캐시 교체 기법을 제안하여 기존의 기법보다 캐시의 히트율을 향상시켰고, 이에 따라 서버의 부하 및 Round Trip Time(RTT) 시간이 감소하여 성능이 향상됨을 증명하였다.

무선 모바일 프록시 시스템에서 유사도 기반의 캐싱 손실 최소화 (Similarity-based Caching Replacement Loss Minimization in Wireless Mobile Proxy Systems)

  • 이종득
    • 한국항행학회논문지
    • /
    • 제16권3호
    • /
    • pp.455-462
    • /
    • 2012
  • 무선 모바일 프록시 캐싱 구조에서 캐싱 교체로 인한 손실은 스트리밍 QoS에 중요한 영향을 미친다. 본 논문에서는 캐싱 교체 과정에서 발생하는 손실을 최소화하기 위하여 유사도 기반의 캐싱 손실 최소화 기법 SCLM(Similarity-based Caching Loss Minimization)을 제안한다. 제안된 기법은 객체 세그먼트를 분할 한 후 유사도 관계를 수행한다. 유사도 관계가 수행된 세그먼트들은 SRT (Similarity Relation Tree)가 생성되고 유사도가 측정된다. 유사도는 적합성 피드백을 결정하는 중요한 척도로서 적합성을 만족한 세그먼트들은 캐싱 교체를 위해 캐시 블록에 저장한다. 시뮬레이션 결과 제안된 기법은 prefix 캐싱 기법, segment 캐싱 기법, 그리고 bps 캐싱 기법에 비해서 캐싱 시작 지연 제어율, 캐시 처리율, 그리고 캐시 응답율의 QoS가 효율적임을 보인다.

적응력있는 블록 교체 기법을 위한 효율적인 버퍼 할당 정책 (Efficient Buffer Allocation Policy for the Adaptive Block Replacement Scheme)

  • 최종무;조성제;노삼혁;민상렬;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권3호
    • /
    • pp.324-336
    • /
    • 2000
  • 본 논문에서는 디스크 입출력 시스템의 성능을 향상시키기 위한 효율적인 버퍼 관리 기법을 제시한다. 본 기법은 사용자 수준의 정보 없이 블록의 속성과 미래 참조 거리간의 관계를 기반으로 각 응용의 블록 참조 패턴을 자동으로 발견하고, 발견된 참조 패턴에 적합한 최적 블록 교체 기법을 적용한다. 또한, 응용이 참조하는 블록이 버퍼 캐쉬에 없어 새로운 버퍼 블록이 요구될 때, 응용별로 블록 참조 패턴에 따라 버퍼 예상 적중률을 분석하여 이를 기반으로 전체 버퍼 캐쉬의 적중률이 극대화되도록 해 주는 버퍼 할당 기법을 제안한다. 이러한 모든 과정은 시스템 수준에서 자동으로 그리고 온라인으로 수행된다. 제시한 기법의 성능을 평가하기 위해 블록 참조 트레이스를 이용해 모의 실험을 수행하였다. 실험 결과 제시한 기법은 적은 오버헤드로 기존의 블록 교체 기법들보다 캐쉬 블록의 적중률을 크게 향상시켜 주었다.

  • PDF

하이브리드 메인 메모리와 스토리지의 특성을 고려한 버퍼 캐시 교체 정책 (A Buffer Cache Replacement Algorithm for Considering both Hybrid Main Memory and Storage)

  • 강동현;엄영익
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.947-953
    • /
    • 2015
  • PRAM은 바이트 단위의 쓰기와 비휘발성의 특징을 모두 가지고 있으며, DRAM보다 높은 밀 집도가 기대되기 때문에 DRAM을 대체할 수 있을 것으로 예상된다. 이에, PRAM 기반의 버퍼 캐시 교체정책에 대한 연구가 활발하게 진행되고 있다. 그러나 대부분의 기존 연구는 PRAM의 수명 및 느린 쓰기 성능에만 집중함으로써 PRAM의 바이트 단위의 쓰기 성능을 제한적으로 이용한다. 이에, 본 논문에서는 PRAM의 바이트 단위의 쓰기 성능과 스토리지의 성능을 모두 고려한 새로운 버퍼 캐시 교체 정책을 제안 한다. 제안 기법은 바이트 단위의 쓰기 성능을 이용하기 위해 작은 크기의 쓰기 요청이 빈번한 페이지를 PRAM에 유지시키며 DRAM과 PRAM사이의 선택적 페이지 이동을 통해 PRAM의 쓰기 횟수를 감소시킨다. 실험 결과, 제안 기법은 CLOCK 알고리즘에 비해 최고 92%까지 PRAM의 쓰기 횟수를 감소시키고 PRAM 테스트 보드에서 최대 62%까지 수행시간을 향상시키는 것을 확인하였다.

멀티미디어 저장 시스템에서 참조 유형을 고려한 혼성 버퍼 교체 기법 (Hybrid Buffer Replacement Scheme Considering Reference Pattern in Multimedia Storage Systems)

  • 류연승
    • 한국멀티미디어학회논문지
    • /
    • 제5권1호
    • /
    • pp.47-56
    • /
    • 2002
  • 멀티미디어 저장 시스템을 위한 기존의 버퍼 캐시 기법들은 멀티미디어 파일의 순차적 접근만을 고려하고 반복 참조는 고려하지 않고 있다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 멀티미디어 저장 시스템을 위한 새로운 버퍼 교체 기법인 HBM(Hybrid Buffer Management)을 제안한다. 제안한 기법은 응용 수준에서 파일의 참조 유형을 파일 시스템에게 알려주고 HBM이 각 파일에 적절한 버퍼교체 정책을 적용한다. 실험 결과, HBM은 DISTANCE나 LRU와 같은 이전 버퍼 교체 기법보다 캐시 적중률을 높일 수 있음을 알 수 있었다.

  • PDF

Performance Analysis of Adaptive Partition Cache Replacement using Various Monitoring Ratios for Non-volatile Memory Systems

  • Hwang, Sang-Ho;Kwak, Jong Wook
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권4호
    • /
    • pp.1-8
    • /
    • 2018
  • In this paper, we propose an adaptive partition cache replacement policy and evaluate the performance of our scheme using various monitoring ratios to help lifetime extension of non-volatile main memory systems without performance degradation. The proposal combines conventional LRU (Least Recently Used) replacement policy and Early Eviction Zone (E2Z), which considers a dirty bit as well as LRU bits to select a candidate block. In particular, this paper shows the performance of non-volatile memory using various monitoring ratios and determines optimized monitoring ratio and partition size of E2Z for reducing the number of writebacks using cache hit counter logic and hit predictor. In the experiment evaluation, we showed that 1:128 combination provided the best results of writebacks and runtime, in terms of performance and complexity trade-off relation, and our proposal yielded up to 42% reduction of writebacks, compared with others.

동작 분석을 통한 비휘발성 메모리에 대한 Wear-out 공격 방지 기법 (Exploiting Memory Sequence Analysis to Defense Wear-out Attack for Non-Volatile Memory)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제21권4호
    • /
    • pp.86-91
    • /
    • 2022
  • Cache bypassing is a scheme to prevent unnecessary cache blocks from occupying the capacity of the cache for avoiding cache contamination. This method is introduced to alleviate the problems of non-volatile memories (NVMs)-based memory system. However, the prior works have been studied without considering wear-out attack. Malicious writing to a small area in NVMs leads to the failure of the system due to the limited write endurance of NVMs. This paper proposes a novel scheme to prolong the lifetime with higher resistance for the wear-out attack. First, the memory reference pattern is found by modified reuse distance calculation for each cache block. If a cache block is determined as the target of the attack, it is forwarded to higher level cache or main memory without updating the NVM-based cache. The experimental results show that the write endurance is improved by 14% on average and 36% on maximum.