DOI QR코드

DOI QR Code

Modeling of Data References with Temporal Locality and Popularity Bias

시간 지역성과 인기 편향성을 가진 데이터 참조의 모델링

  • 반효경 (이화여자대학교 컴퓨터공학과)
  • Received : 2023.09.16
  • Accepted : 2023.12.08
  • Published : 2023.12.31

Abstract

This paper proposes a new reference model that can represent data access with temporal locality and popularity bias. Among existing reference models, the LRU-stack model can express temporal locality, which is a characteristic that the more recently referenced data has, the higher the probability of being referenced again. However, it cannot take into account differences in popularity of the data. Conversely, the independent reference model can reflect the different popularity of data, but has the limitation of not being able to model changes in data reference trends over time. The reference model presented in this paper overcomes the limitations of these two models and has the feature of reflecting both the popularity bias of data and their changes over time. This paper also examines the relationship between the cache replacement algorithm and the reference model, and shows the optimality of the proposed model.

본 논문은 시간 지역성과 인기 편향성을 가진 데이터 참조를 나타낼 수 있는 새로운 참조 모델을 제안한다. 기존의 참조 모델 중 대표적인 LRU 스택 모델은 시간 지역성, 즉 최근에 참조된 데이터가 다시 참조될 가능성이 높은 성질을 나타낼 수 있으나, 데이터의 서로 다른 인기도를 고려할 수 없는 약점이 있다. 이와 반대로 데이터의 서로 다른 인기도를 반영할 수 있는 모델로 독립 참조 모델이 있으나, 시간에 따른 데이터 참조 성향의 변화를 모델링할 수 없는 한계가 있다. 본 논문이 제시하는 참조 모델은 이 두 모델의 한계를 극복하여 서로 다른 데이터의 인기도와 시간에 따른 참조 성향의 변화를 모두 반영할 수 있는 특징이 있다. 또한, 본 논문에서는 캐쉬 교체 알고리즘과 참조 모델의 연관성에 대해 살펴보고 제안한 모델의 최적성에 대해 보인다.

Keywords

Ⅰ. 서론

컴퓨터시스템 내의 메모리 및 스토리지는 계층적인 구조를 형성하고 있다. CPU에 가까운 상위 계층으로 갈수록 접근속도가 빨라야 하므로 단위 용량당 단가가 높은 매체로 구성하고 하위 계층으로 갈수록 용량이 커야 하므로 단가가 낮은 매체로 구성하여 접근속도가 느리다. 따라서, 이들 간의 속도 차이를 완충하기 위한 캐슁 기술이 시스템 전체의 성능 개선을 위해 널리 연구된 바 있다[1, 2]. 스토리지와 메모리 계층 간의 속도 차이를 완충하기 위한 캐슁 기법 적용의 대표적인 사례로는 가상메모리의 페이징 시스템과 파일시스템의 버퍼 캐쉬가 있다[2, 3].

한편, 캐슁 기법이 우수한 성능을 나타내기 위해서는 캐슁의 단위 데이터가 어떠한 참조 특성을 가지고 접근되는지를 분석하고 이를 모델링하는 연구가 필요하다. 데이터 참조의 특성으로 널리 알려진 대표적인 두 가지 성질로는 시간 지역성(temporal locality)과 인기 편향성(popularity bias)이 있다. 시간 지역성은 최근에 참조된 데이터가 다시 참조될 가능성이 높은 성질을 말하며, 인기 편향성은 여러 번 참조된 데이터일수록 또다시 참조될 가능성이 높은 성질을 말한다. 이러한 두 가지 성질을 가지는 데이터 참조를 반영하는 대표적인 참조 모델로 LRU 스택 모델(LRU-stack model)과 독립 참조 모델(independent reference model)이 있다. 다양한 캐슁 환경의 참조 데이터가 시간 지역성을 나타내기 때문에 LRU 스택 모델은 실제 데이터 참조 시 발생하는 시간적 특성을 모델링하기 위한 방법으로 널리 사용되고 있다[4]. 그러나, LRU 스택 모델은 데이터 참조의 인기 편향성을 반영할 수 없다는 단점이 있다. 독립 참조 모델은 각 데이터가 서로 다른 참조 확률에 입각해서 접근되는 상황을 나타낼 수 있기 때문에 데이터별로 상이한 인기도를 반영할 수 있다는 장점이 있다. 그러나, 독립 참조 모델은 시간에 따라 데이터의 인기도가 변할 경우 이를 반영할 수 없다는 단점이 있다.

본 논문에서는 LRU 스택 모델과 독립 참조 모델의 단점을 극복하여 시간 지역성과 인기 편향성을 모두 표현할 수 있는 새로운 참조 모델을 제안한다. 본 논문이 제안하는 참조 모델은 각 데이터가 서로 다른 인기도를 가지고 참조되는 성향을 반영할 수 있는 동시에 그러한 인기도가 시간에 따라 변하는 상황을 고려할 수 있다.

멀티미디어, 웹 등 다양한 환경의 데이터 참조 시 시간 지역성과 인기 편향성을 동시에 가지고 있는 것으로 알려져 있어[5, 6], 본 논문이 제안하는 참조 모델은 이와 같은 환경의 캐슁 기법을 위한 참조 모델링에 효과적으로 이용될 수 있을 것으로 기대된다.

본 논문의 이후 구성은 다음과 같다. II장에서는 참조 모델과 대응 관계를 이루는 캐쉬 교체 알고리즘에 대해 설명한다. III장에서는 본 논문이 제안하는 참조 모델을 설명하고, IV장과 V장에서는 이 모델에 최적인 교체 알고리즘에 대해 설명하고 이를 이론적 및 실험적으로 입증한다. 끝으로 VI장에서는 본 논문의 결론을 제시한다.

Ⅱ. 캐쉬 교체 알고리즘

캐슁 기법의 성능은 교체 알고리즘에 의해 크게 좌우된다. 교체 알고리즘이란 한정된 빠른 캐쉬 공간에 어떠한 데이터를 담고 어떠한 데이터를 쫓아낼지를 동적으로 결정하는 온라인 알고리즘이다. 이러한 교체 알고리즘에서 데이터의 참조 가능성을 예측하는 것은 캐슁 기법의 성능에 중요한 영향을 미친다. 참조 가능성에 영향을 미치는 요소 중 시간 지역성과 인기 편향성을 고려하는 대표적인 알고리즘으로 LRU(Least Recently Used) 알고리즘과 LFU(Least Frequently Used) 알고리즘이 있다[4]. 캐쉬에서 빈 공간이 필요한 경우 LRU 알고리즘은 가장 오래전에 참조되었던 데이터를 삭제하며, LFU 알고리즘은 참조횟수가 가장 적었던 데이터를 삭제한다.

일반적으로 하나의 참조 모델이 주어지면 그에 최적인 교체 알고리즘을 생각해 볼 수 있다. LRU 스택 모델에 최적인 교체 알고리즘은 LRU 알고리즘으로 알려져 있으며, 독립 참조 모델에 최적인 교체 알고리즘은 LFU 알고리즘으로 알려져 있다[4, 7]. 한편, LFU 알고리즘이 참조 횟수를 카운트하는 방법은 서로 다른 두 가지를 생각해 볼 수 있다. 그 첫째는 캐쉬에서 삭제된 후 다시 진입한 데이터의 경우 이전의 참조횟수를 모두 합산하는 방식이고, 둘째는 데이터가 캐쉬에서 삭제될 때 그 참조횟수를 유지하지 않아 새롭게 캐쉬에 진입한 이후의 참조횟수만을 카운트하는 방식이다. 일반적인 LFU 알고리즘은 후자를 의미하지만, 독립 참조 모델에 최적인 LFU 알고리즘은 전자를 의미한다. O'Neil 등은 과거 참조 시각이 k개까지 주어진다는 가정 하에 LRU-k 알고리즘이 독립 참조 모델에서 최적임을 증명한 바 있다[8].

한편, 캐쉬 교체 알고리즘 중 시간 지역성과 인기 편향성을 모두 고려하는 알고리즘으로 LRFU(Least Recently/Frequently Used) 알고리즘과 LUV(Least Unified Value) 알고리즘이 제안된 바 있다[9, 10]. 이들 알고리즘은 시간 지역성과 인기 편향성의 두 가지 성질을 어느 정도 반영할지를 제어하기 위해 파라미터를 두어 그 값이 0과 1 사이에서 변함에 따라 각각 양쪽 극단에서 인기 편향성과 시간 지역성만을 고려하는 알고리즘으로 설계되며 그 사이 값을 가질 경우 두 성질을 모두 반영하게 된다. 즉, LFU와 LRU가 각각 참조횟수와 마지막 참조 시각의 최근성만을 고려하는 반면, LRFU와 LUV는 이 두 가지 요소를 복합적으로 고려하여 데이터의 참조 가능성을 예측한다[9, 10].

III. 참조 모델의 설계

본 논문이 제안하는 참조 모델은 시간 지역성과 데이터의 인기 편향성을 모두 고려하여 데이터의 참조 순서를 생성하는 모델로 그 기본적인 구조는 LRU 스택 모델과 유사하다. LRU 스택 모델의 경우 그림 1에서 보는 것처럼 총 n개의 참조 대상 데이터를 위해 엔트리의 수가 n인 스택의 각 엔트리에 참조 확률을 정의하며, 확률값은 스택의 낮은 위치로 갈수록 낮아진다. n개의 데이터는 참조 시간 순서에 따라 스택의 최상위 엔트리부터 하나씩 위치하며, 스택에 주어진 참조 확률에 따라 새롭게 참조되는 데이터가 결정된다. 참조가 이루어진 데이터는 스택의 현재 엔트리에서 최상위 엔트리로 이동하며, 해당 데이터보다 상위 엔트리에 있던 데이터는 엔트리를 한 자리씩 아래로 이동한다. 이러한 방식으로 데이터의 참조 순서를 생성하여 최근에 참조된 데이터가 다시 참조될 가능성이 높은 성질을 반영한다.

OTNBBE_2023_v23n6_119_f0001.png 이미지

그림 1. LRU 스택 모델과 제안하는 참조 모델의 비교

Fig. 1. Comparison of the LRU-stack model and the proposed reference model.

본 논문의 참조 모델은 다음과 같이 정의된다. 데이터의 집합이 D = {d1, d2,…, dn}으로 주어진다고 할 때, 참조 확률이 정의된 n개의 엔트리 l1, l2, …, ln으로 구성된 스택이 존재하며 각 엔트리의 참조 확률은 LRU 스택 모델과 마찬가지로 스택의 낮은 위치로 갈수록 낮아진다. 각 엔트리에 정의된 확률의 총합은 1이며, 새로운 참조 데이터의 생성은 각 엔트리에 결합된 확률에 근거한다. 이때, 새롭게 참조된 데이터를 LRU 스택 모델처럼 스택의 최상위 엔트리로 이동시키는 것이 아니라 그 데이터의 참조가치 값에 근거해서 적정 엔트리로 이동시킨다. 참조가치 값은 시간 지역성과 인기 편향성을 복합적으로 고려하는 값으로 LRFU 및 LUV 알고리즘에서 제안한 데이터의 평가 방식과 유사한 방식으로 다음과 같이 정의된다.

정의 1. 데이터의 참조가치 값 정의

데이터 d가 과거에 k번 참조되었고 각각의 참조 시각이 t1, t2, …, tk라고 하자. 본 논문에서의 시간은 데이터가 참조될 때마다 1씩 증가하는 논리적 시간을 뜻한다. 그러면 데이터 d의 현재 시각 t에서의 참조가치 값 Valuet(d)는 다음과 같이 정의된다.

\(\begin{aligned}\operatorname{Value}_{t}(d)=\sum_{i=1}^{k} F\left(t-t_{i}\right)\end{aligned}\)       (1)

이 때, 함수 F(x)는 \(\begin{aligned}F(x)=\left(\frac{1}{2}\right)^{\lambda x}\end{aligned}\) (0 <λ≤1)로 정의된다.

LRU 스택 모델에서는 각 데이터의 가장 최근 참조 시점에 근거해서 스택 엔트리 상의 위치를 결정하므로 시간 지역성만을 반영할 수 있는 반면, 본 논문의 참조 모델에서는 참조 시점의 최근성과 참조횟수를 복합적으로 고려한 참조가치 값의 크기대로 데이터의 스택 내 위치가 결정되므로 시간 지역성과 데이터의 인기 편향성을 모두에 반영할 수 있다.

정리 1. λ=1인 경우 본 논문의 참조 모델은 LRU 스택 모델과 동일하다.

증명. 임의의 시점에 두 모델이 데이터를 스택 상의 동일 엔트리에 위치시킨다는 것을 보이면 된다. 즉, 데이터를 참조가치 값을 기준으로 정렬한 순서와 직전 참조 시점을 기준으로 정렬한 순서가 일치함을 보이면 된다. 임의의 두 데이터 x와 y에 대해 x의 직전 참조 시점이 y의 직전 참조 시점보다 더 최근이라고 하자. 그러면, x의 참조가치 값이 y의 참조가치 값보다 크다는 것을 보이면 된다. 한편, 임의의 i와 l≥i+1인 임의의 l에 대해

\(\begin{aligned}\left(\frac{1}{2}\right)^{i}>\sum_{k=i+1}^{l}\left(\frac{1}{2}\right)^{k}\end{aligned}\)       (2)

이 성립하므로 데이터 y가 과거에 아무리 많이 참조되었다 하더라도 이보다 더 최근에 참조된 데이터 x가 항상 더 큰 참조가치 값을 가지게 된다.

IV. 최적성 분석

본 장에서는 III장에서 제시한 참조 모델에 의해 생성된 데이터의 참조 순서에 대한 최적의 교체 알고리즘이 LRFU 알고리즘임을 증명한다. 이는 LRU 스택 모델에 최적인 알고리즘이 LRU 알고리즘임을 증명한 것과 유사한 방식을 따른 것이다[4]. 데이터의 집합이 D = {d1, d2,…, dn}이고, 주어진 λ에 의한 참조 모델이 생성한 참조 데이터의 순서가 r1, r2,…, rt,…이라 하자. 이때, Ck(S, Value)를 참조 순서 rt+1, rt+2,…, rt+k를 처리하는 동안 발생하는 캐쉬 미스의 최소 기대값이라 하자. 여기에서 ‘최소값’이 아닌 ‘최소 기대값’이라는 용어를 사용한 것은 본 논문의 최적성 분석이 확률적인 참조 모델 하에서 이루어지기 때문이다. 이때, S와 Value = <Value(d1), Value(d2),…, Value(dn)>는 각각 시각 t에서의 캐쉬 내용 St와 데이터의 Valuet 값의 벡터 <Valuet(d1), Valuet(d2),…, Valuet(dn)>을 나타낸다. Value․x가 데이터 x가 참조된 후 새롭게 바뀐 Value 벡터를 나타낸다고 하면, 최적성(optimality)은 다음 식으로 표시될 수 있다.

\(\begin{aligned}\begin{array}{l}C_{0}(S, \text { Value })=0 \\ C_{k+1}(S, \text { Value })=\sum_{x \in S} p(x) C_{k}(S, \text { Value } \cdot x) \\ \quad+\sum_{x \notin S} p(x)\left\{1+\min _{z \in S} C_{k}(S+x-z, \text { Value } \cdot x)\right\}\end{array}\end{aligned}\)       (3)

이 때, p(x)는 주어진 Value 벡터 하에서 데이터 x의 스택 위치에 주어진 참조 확률을 나타낸다. 이제 LRFU 알고리즘이 최적의 알고리즘임을 보이기 위해서는 LRFU 알고리즘에 의한 캐쉬 운영이 위의 식을 만족함을 보이면 된다. 캐쉬 내에서 Value 값이 가장 작은 데이터를 dmin이라고 할 때, 이는 임의의 k (k≥0)에 대해 다음 식을 만족하는 것을 보이는 것으로 충분하다.

minz∈S Ck(S + x - z, Value · x) = Ck(S + x - dmin, Value · x)       (4)

이는 dmin이 S+d+dmin 중에서 Value 값이 가장 작은 원소라 할 때 다음을 보이는 것과 동일하다.

Ck(S + dmin, Value) - Ck(S + d, Value) ≥ 0       (5)

이 식이 k=0에서 성립하는 것은 자명하다. 이제 임의의 k (k≥0)에 대해 성립한다고 가정하고 k+1일 때에도 성립함을 보이겠다.

\(\begin{aligned}\begin{array}{l}C_{k+1}\left(S+d_{\min }, \text { Value }\right)-C_{k+1}(S+d, \text { Value }) \\ =\sum_{x \in S} p(x)\left[C_{k}\left(S+d_{\min }, \text { Value } \cdot x\right)-C_{k}(S+d, \text { Value } \cdot x)\right] \\ +\left[p(d)-p\left(d_{\min }\right)\right] \\ +p(d)\left[\min _{z \in S+d_{\min }} C_{k}\left(S+d_{\min }+d-z, \text { Value } \cdot d\right)\right. \\ \left.\quad-C_{k}(S+d, \text { Value } \cdot d)\right] \\ +p\left(d_{\min }\right)\left[C_{k}\left(S+d_{\min }, \text { Value } \cdot d_{\min }\right)-\right. \\ \left.\quad \min _{z \in S+d} C_{k}\left(S+d+d_{\min }-z, \text { Value } \cdot d_{\min }\right)\right] \\ +\sum_{x \notin S+d+d_{\min }} p(x)\left[\min _{z \in S+d} C_{k}\left(S+d_{\min }+x-z, \text { Value } \cdot x\right)\right. \\ \left.-\min _{z \in S+d_{\min }} C_{k}(S+d+x-z, \text { Value } \cdot x)\right]\end{array}\end{aligned}\)       (6)

첫 번째 항은 k일 때 성립한다는 귀납법 가정에 의해 0 이상의 값이다. 두 번째 항은 Value 값이 큰 데이터가 스택 상에서 참조 확률이 더 높은 엔트리에 위치하므로 0 이상의 값이다. 세 번째 항은 가정에 의해 z = dmin일 때 최소 비용을 가지므로 소거된다. 네 번째 항에서는 z = d인 경우 항 전체가 소거되므로 적어도 0 이상의 값을 가진다. 마찬 가지 방법으로 다섯 번째 항 역시 0 이상의 값을 가지며, 따라서 전체 식도 0 이 상의 값을 가진다.

V. 시뮬레이션

본 논문에서 제안한 참조 모델의 검증을 위해 본 장에서는 모델에 의해 생성되는 데이터 참조의 특성을 살펴보고 캐쉬 시뮬레이션을 통해 그 타당성을 입증한다. 그림 2는 엔트리 크기가 2이고 각 엔트리에 결합된 참조 확률이 0.7과 0.3인 경우 LRU 스택 모델과 제안한 모델로 데이터 참조를 100만회 생성했을 때 데이터의 참조 확률 변화를 보여주고 있다. 그림에서 보는 것처럼 LRU 스택 모델의 경우 참조 확률이 0.7 또는 0.3 중 하나의 값을 가지며 지속적으로 진동하는 모습을 나타낸 반면 제안한 모델은 참조 확률이 시간에 따라 증감하면서 확률 변화가 매끄럽게 나타나는 것을 확인할 수 있다.

OTNBBE_2023_v23n6_119_f0002.png 이미지

그림 2. 시간에 따른 참조 확률 변화

Fig. 2. Changes in reference probability over time

그림 3(a)는 상기의 참조 모델에 의해 데이터 참조를 생성한 경우 초기 참조 확률이 0.7인 데이터의 참조 확률 변화를 x축 횟수만큼 독립 시행한 경우 그 평균값의 변화를 표시한 그래프이다. 그림에서 보는 것처럼 많은 시행을 통해 해당 데이터의 참조 확률이 초기 참조 확률에 수렴하는 것을 확인할 수 있다. 그림 3(b)는 이런 방식으로 10,000번의 독립 시행 후 얻어진 데이터의 참조 확률값을 확률 구간별로 표시한 것이다. 그림에서 보는 것처럼 초기 참조 확률인 0.7이 가장 높은 빈도를 나타내었으며, 이를 중심으로 정규 분포 형태를 나타내었다.

OTNBBE_2023_v23n6_119_f0003.png 이미지

그림 3. 제안 모델에 의한 참조 확률 변화 및 분포

Fig. 3. Reference probability changes and distributions based on the proposed model.

그림 4는 모델에 의해 생성된 데이터 참조에 대해 IV장에서 최적성을 입증한 교체 알고리즘이 실제로 어떤 성능을 나타내는지를 보여주고 있다. 그림 4(a)는 그림 3(a)에 의해 생성된 데이터 참조에 대해 LRFU 알고리즘으로 캐쉬를 운영했을 때 캐쉬 적중률을 보여주고 있다. 그림에서 x축은 시행 횟수를 나타내며 y축은 해당 횟수 만큼 캐쉬를 운영한 후 캐쉬 적중률의 평균을 보여주고 있다. 그림에서 보는 것처럼 캐쉬 적중률은 참조 모델에서 상대적으로 높은 확률을 가진 데이터의 참조 확률과 거의 유사한 결과를 얻은 것을 확인할 수 있다. 그림 4(b)는 그림 3(b)와 동일한 방법으로 10,000번 독립 시행으로 생성한 데이터 참조에 대해 LRFU 알고리즘으로 캐쉬를 운영한 결과 캐쉬 적중률의 분포를 보여주고 있다. 그림에서 보는 것처럼 캐쉬 적중률은 데이터 참조 확률과 동일한 0.7을 중심으로 정규 분포 형태를 나타낸 것을 확인할 수 있다.

OTNBBE_2023_v23n6_119_f0004.png 이미지

그림 4. LRFU에 의한 캐쉬 적중률 변화 및 분포

Fig. 4. Cache hit ratio changes and their distributions based on LRFU.

VI. 결론

본 논문에서는 시간 지역성과 인기 편향성을 동시에 반영하는 새로운 참조 모델을 제시하였다. 전통적인 참조 모델인 LRU 스택 모델의 경우 시간 지역성을 가지는 데이터의 참조 성향을 표현할 수 있는 반면 데이터의 서로 다른 인기도를 표현할 수 없고, 독립 참조 모델의 경우 데이터의 인기 편향성을 표현할 수 있지만, 시간에 따른 참조 성향의 변화를 나타낼 수 없었다. 본 논문이 제시한 참조 모델은 이러한 점을 극복하여 데이터의 서로 다른 인기도와 시간에 따른 참조 성향의 변화를 모두 반영할 수 있는 특징이 있다. 또한, 본 논문에서는 제안한 참조 모델에 최적인 캐쉬 교체 알고리즘에 대해 설명하고 그 최적성을 증명하였다. 최근 그 중요성이 날로 증가하고 있는 모바일 멀티미디어 데이터 및 인공지능 데이터 등에 나타나는 참조 성향이 시간 지역성과 인기 편향성을 모두 가지고 있어 본 논문의 참조 모델은 이와 같은 환경의 데이터 모델링에 효과적으로 이용될 수 있을 것으로 기대된다.

References

  1. B. Kim, Y. Woo, and I. Kim, "Aggressive cooperative caching scheme in mobile ad hoc networks," Journal of KIIT, vol. 18, no. 1, pp. 41-48, 2020. DOI: https://doi.org/10.14801/jkiit.2020.18.1.41
  2. S. Park, "RFJ: A reliable and fast journaling mechanism," Journal of the Korea Academia-Industrial cooperation Society(JKAIS), vol. 20, no. 7, pp. 45-51, 2019. DOI: https://doi.org/10.5762/KAIS.2019.20.7.45
  3. S. Lee, H. Bahn, and S. H. Noh, ''CLOCK-DWF: A write-history-aware page replacement algorithm for hybrid PCM and DRAM memory architectures,'' IEEE Trans. Computers, vol. 63, no. 9, pp. 2187-2200, 2014. DOI: https://doi.org/10.1109/TC.2013.98
  4. E. G. Coffman and P. J. Denning, Operating Systems Theory, Prentice-Hall, 1973.
  5. V. Almeida, A. Bestavros, M. Crovella, and A. Oliveira, "Characterizing reference locality in the WWW," 4th IEEE Conf. Parallel and Distributed Information Systems, pp. 92-103, 1996. DOI: https://doi.org/10.1109/PDIS.1996.568672.
  6. M. Arlitt and C. Williamson, "Web Server Workload Characterization: The Search for Invariants," ACM SIGMETRICS Conference, pp.126-137, 1996. DOI: https://doi.org/10.1145/233008.233034
  7. G. S. Gao, "Performance Analysis of Cache Memories," Journal of the ACM, vol. 25, no. 3, pp.378-395, 1978. DOI: https://doi.org/10.1145/322077.322081
  8. E. O'Neil, P. O'Neil, and G. Weikum, "An Optimality Proof of the LRU-K Page Replacement Algorithm," Journal of the ACM, vol.46, no.1, pp.92-112, 1999. DOI: https://doi.org/10.1145/300515.300518
  9. D. Lee, J. Choi, H. Choe, S. Noh, S. Min, and Y. Cho, "Implementation and performance evaluation of the LRFU replacement policy," 23rd Euromicro Conf. New Frontiers of Information Technology, pp. 106-111, 1997. DOI: https://doi.org/10.1109/EMSCNT.1997.658446
  10. H. Bahn, S. Noh, S. Lyul, and K. Koh, "Efficient replacement of nonuniform objects in Web caches," IEEE Computer, vol. 35, no. 6, pp. 65-73, 2002. DOI: https://doi.org/10.1109/MC.2002.1009170.