• Title/Summary/Keyword: LRFU

Search Result 5, Processing Time 0.406 seconds

Design of an Adaptive LRFU Block Replacement Policy (적응형 LRFU 블록 교체 정책의 설계)

  • Lee, Jong-Min;Hyun, Choul-Seung;Lee, Dong-Hee
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.06a
    • /
    • pp.266-270
    • /
    • 2007
  • LRFU 블륵 교체 정책은 LRU 정책과 LFU 정책 사이에 존재하는 교체 정책들의 스펙트럼이며, LRFU 기법의 제어 변수 $\lambda$는 스펙트럼 상에서 위치를 결정한다. 그리고 작업 부하(workload)마다 최적 $\lambda$값이 존재하며, 해당 작업 부하를 실행할 때 이 값을 LRFU 기법에 적용하면 LRFU 스펙트럼 상에서 최적의 성능을 보이는 블록 교체 정책이 선택된다. 하지만 LRFU 기법은 최적의 $\lambda$값 설정을 위한 정보를 제공하지 않기 때문에 작업 부하에 따른 최적의 $\lambda$값을 찾기 위한 별도의 연구가 필요하다. 본 논문에서는 LRFU 정책을 기반으로 작업 부하에 따라서 효과적으로 $\lambda$값을 변화 시키는 적응형 LRFU 블록 교체 정책을 설명하고 있다. 적응형 LRFU 정책의 성능을 평가하기 위해서 트레이스 기반 모의 실험을 수행하였으며 실험 결과를 통해 적응형 LRFU 정책의 성능이 정적으로 선택된 최적의 $\lambda$값을 적용한 LRFU 정책의 성능에 근접함을 알 수 있었다.

  • PDF

Document Replacement Policy for Improving of Cache Performance in the Web (웹에서 LRFU기법을 이용한 캐쉬(cache) 성능 향상을 위한 도큐먼트 재배치 정책)

  • 윤태완;장태무
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.10-12
    • /
    • 2001
  • 웹에서 도큐먼트 재배치 정책은 캐쉬(cache)성능을 향상시키기 위한 방법중의 하나이다. 이 방법을 웹 캐쉬 공간이 한정되어 있으며 새로운 도큐먼트를 위한 공간을 만들기 위해 어느 도큐먼트를 축출(remove)[2]할 것인가를 결정하고 새로운 도큐먼트를 갱신(update)[6]하기 위한 방법을 제공한다. 도큐먼트 재배치 정책으로는 LRU(Least Recently Used), LFU(Least Frequently Used)등과 같은 방법이 보편적을 사용되고 있으나, 웹에 적용하기에는 몇 가지 단점이 있다. 본 논문에서는 LRU, LFU등의 도큐먼트 재배치 정책을 이용하면서도 웹에 적용하기 위해 몇 가지 단점을 보완한 LRFU(Least Recently/Frequently Used)[4]기법을 사용한다. 또한 본 논문에서는 인터넷(internet) 사용자의 지수적인(exponential) 증가와 이로 인한 병목현상(bottleneck)의 발생을 전제로 하여, 캐쉬성능을 향상시키기 위한 다각적인 시도로 지역성(locality), 일관성(consistency)[7][5], 확장성(scalability)[5]등의 문제에 관한 논의와 기존의 방법과는 다른 도큐먼트 재배치 정책에의 접근을 시도한다.

A novel page replacement policy associated with ACT-R inspired by human memory retrieval process (인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책)

  • Roh, Hong-Chan;Park, Sang-Hyun
    • The KIPS Transactions:PartD
    • /
    • v.18D no.1
    • /
    • pp.1-8
    • /
    • 2011
  • The cache structure, which is designed for assuring fast accesses to frequently accessed data, resides on the various levels of computer system hierarchies. Many studies on this cache structure have been conducted and thus many page-replacement algorithms have been proposed. Most of page-replacement algorithms are designed on the basis of heuristic methods by using their own criteria such as how recently pages are accessed and how often they are accessed. This data-retrieval process in computer systems is analogous to human memory retrieval process since the retrieval process of human memory depends on frequency and recency of the retrieval events as well. A recent study regarding human memory cognition revealed that the possibility of the retrieval success and the retrieval latency have a strong correlation with the frequency and recency of the previous retrieval events. In this paper, we propose a novel page-replacement algorithm by utilizing the knowledge from the recent research regarding human memory cognition. Through a set of experiments, we demonstrated that our new method presents better hit-ratio than the LRFU algorithm which has been known as the best performing page-replacement algorithm for DBMS caches.

Efficient Cache Management Scheme in Database based on Block Classification (블록 분류에 기반한 데이타베이스의 효율적 캐쉬 관리 기법)

  • Sin, Il-Hoon;Koh, Kern
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.29 no.7
    • /
    • pp.369-376
    • /
    • 2002
  • Although LRU is not adequate for database that has non-uniform reference pattern, it has been adopted in most database systems due to the absence of the proper alternative. We analyze database block reference pattern with the realistic database trace. Based on this analysis, we propose a new cache replacement policy. Trace analysis shows that extremely non-popular blocks take up about 70 % of the entire blocks. The influence of recency on blocks' re-reference likelihood is at first strong due to temporal locality, however, it rapidly decreases and eventually becomes negligible as stack distance increases. Based on this observation, RCB(Reference Characteristic Based) cache replacement policy, which we propose in this paper, classifies the entire blocks into four block groups by blocks' recency and re-reference likelihood, and operates different priority evaluation methods for each block group. RCB policy evicts non-popular blocks more quickly than the others and evaluates the priority of the block by frequency that has not been referenced for a long time. In a trace-driven simulation, RCB delivers a better performance than the existing polices(LRU, 2Q, LRU-K, LRFU). Especially compared to LRU. It reduces miss count by 5~l2.7%. Time complexity of RCB is O(1), which is the same with LRU and 2Q and superior to LRU-K(O(log$_2$N)) and LRFU(O(l) ~ O(log$_2$N)).

Improve Methods of IPTV Channel Zapping Delay Based on Client Access Pattern (가입자 접근패턴 기 반의 IPTV 채널전환지연 개선방법)

  • Oh, Sang-Su;Kim, Young-Mok;Beom, Soon-Kyun
    • 한국정보통신설비학회:학술대회논문집
    • /
    • 2007.08a
    • /
    • pp.127-131
    • /
    • 2007
  • 본 논문에서 제안하고자 하는 IPTV 채널캐슁 서비스는 IPTV 서비스의 품질요소인 QoE(Quality of Experience)의 개선을 목적으로 하고 있다. IPTV 채널캐슁 방법은 IPTV 서비스가 실시간 방송 및 VOD(Video On Demand)등 다양한 패턴의 서비스를 선택하는 사용자의 채널요구 패턴을 반영한 인접채널(adjacent-channel)을 멀티캐스트하면, 사용자의 채널전환요구시 제어메시지 전송 및 스위칭에 소요되는 대기시간을 줄여 사용자의 채널전환지연시간을 개선할 수 있다. 이를 위하여 본 논문에서는 LRFU(Least Recently Frequently Used) 알고리즘에 기반한 MCA(Multicast Channel Agent)을 제안하며, MCA을 구성모듈에 대한 설명을 기술한다.

  • PDF