• 제목/요약/키워드: LRU algorithm

검색결과 42건 처리시간 0.017초

플래시 변환 계층을 위한 DPW-LRU 캐시 교체 알고리즘 분석 및 개선 (Analysis and Improvement of the DPW-LRU Cache Replacement Algorithm for Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권6호
    • /
    • pp.289-297
    • /
    • 2020
  • Although flash disks are being used widely instead of hard disks, it is difficult to optimize for effective utilization of flash disks because overwrite in place is impossible and the power consumption and time required for read, write, and erase operations are all different. One of these optimization issues is a cache management strategy to minimize write operations. The cache operates at two levels: an operating system equipped with flash disks and a translation layer within the flash disk. Most studies deal with the operating system-level cache strategy. In this study, we implement and analyse the DPW-LRU algorithm which is one of the recently proposed operating system cache replacement algorithms to apply to FTL, and grope with some improvements. As a result of the experiment, the DPW-LRU algorithm maintained superiority even in the FTL environment, and showed better performance with a slight improvement.

NAND 플래시 변환 계층에서 전력 소모에 영향을 미치는 페이지 캐싱 전략의 비교·분석 (A Comparative Analysis on Page Caching Strategies Affecting Energy Consumption in the NAND Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제13권3호
    • /
    • pp.109-116
    • /
    • 2018
  • SSDs that are not allowed in-place update within the allocated page cause another allocation of a new page that will replace the previous page at the moment data modification occurs. This intrinsic characteristic of SSDs requires many changes to the existing HDD-based IO theory. In this paper, we conduct a performance comparison of FTL caching strategy in perspective of cache hashing (Global vs. grouped) and caching algorithm (LRU vs. NUR) through a simulation. Experimental results show that in terms of energy consumption for flash operation the grouped management of cache is not suitable and NUR algorithm is superior to LRU algorithm. In particular, we found that the cache hit ratio of LRU algorithm is about 10% point higher than that of NUR algorithm while the energy consumption of LRU algorithm is about 32% high.

Cache Memory and Replacement Algorithm Implementation and Performance Comparison

  • Park, Na Eun;Kim, Jongwan;Jeong, Tae Seog
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권3호
    • /
    • pp.11-17
    • /
    • 2020
  • 본 논문은 캐시 시뮬레이션을 통해 각 교체 알고리즘의 캐시 히트(Cache Hit) 및 검색시간을 측정함으로써 캐시 교체 정책에 대한 실용적인 결과를 제시한다. 프로세서의 성능이 향상되면서 캐시 메모리 또한 성능을 향상하기 위한 많은 연구가 활발히 진행되고 있다. 캐시 메모리는 일반적으로 LRU(Least Recently Used) 교체방식을 사용하고 있으며 LRU 방식 이외에도 대표적으로 FIFO(First-In First-Out), LFU(Least Frequently Used) 및 Random 교체방식이 있다. 논문에서는 캐시 메모리 구조 및 교체 알고리즘을 소프트웨어로 구현하여 각 기법의 특징을 분석한다. 논문의 실험결과 LRU 알고리즘이 균등 분포에서 36.044%, 577.936ns, 편향 분포에서 45.636%, 504.692ns의 히트율(Hit ratio)과 검색시간을 보였으며, FIFO 알고리즘은 균등 분포에서 36.078%, 554.772ns, 편향 분포에서 45.662%, 489.574ns로 LRU와 유사한 성능을 보였다. Random 교체방식은 균등 분포에서 30.042%, 622.866ns, 편향 분포에서 36.36%, 553.878%로 가장 낮은 성능을 보였다. 이는 캐시 메모리에서 일반적으로 사용되는 LRU 교체방식이 타 교체 알고리즘보다 최선의 성능을 보이면서도 데이터의 참조 정보를 고려하는 합리적인 알고리즘임을 나타내는 것이다.

개선된 Elephant Flows 발견 알고리즘 (An improved algorithm for Detection of Elephant Flows)

  • 정진우;최윤기;손성훈
    • 한국통신학회논문지
    • /
    • 제37B권9호
    • /
    • pp.849-858
    • /
    • 2012
  • 본 논문에서는 빠르고 정확하게 elephant flow를 발견할 수 있는 알고리즘을 제시한다. 최근 인터넷 사용자의 증가와 다양한 응용 프로그램의 등장으로 인하여, 네트워크 트래픽의 대규모화가 급속히 진행되고 있는 추세이다. 이러한 변화에 따라 네트워크 대역의 상당 부분을 점유하는 elephant flow 가 자주 발생하게 되었다. Elephant flow는 인터넷 트래픽의 관리 (management) 및 서비스 측면에서 네트워크 대역 (network bandwidth)의 불공평한 사용 문제를 유발한다. 본 논문에서는 Elephant flow를 발견하는 방법들 중 하나인 기존 Landmark-LRU 기법에 간단한 메커니즘을 추가시켜, 발견율을 크게 증가시키는 방법을 제시하였다. 그리고 제안하는 개선안을 실제 네트워크에서 추출한 트레이스 (network traces)에 적용하는 시뮬레이션을 통하여 평가하였다. 그 결과로 우리가 제시하는 개선 알고리즘이 효율적인 메모리 비용을 유지하면서 Landmark-LRU 기법보다 더 정확하게 elephant flow를 발견하는 것을 확인할 수 있었다.

선반입을 이용한 효율적인 버퍼 캐쉬 관리 알고리즘 (An Efficient Buffer Cache Management Algorithm based on Prefetching)

  • 전흥석;노삼혁
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권5호
    • /
    • pp.529-539
    • /
    • 2000
  • 본 논문은 선반입에 기반한 디스크 버퍼 관리 알고리즘인 $W^2R$ 알고리즘을 제안한다. $W^2R$알고리즘은 어떤 블록을, 언제 선반입할 것인가를 결정하기 위한 복잡한 선반입 정책 대신, LRU-OBL 알고리즘의 접근 방법을 따라 현재 참조되는 블록의 논리적 다음 블록을 선반입한다. LRU-OBL 알고리즘과의 기본적인 차이점은 $W^2R$ 알고리즘은 버퍼를 논리적으로 두개의 공간, 즉, Weighing Room과 Waiting Room으로 분할한다는 것이다. 참조되는 플록은 Weighing Room에 반입되고 선반입되는 논리적 다음 블록은 Waiting Room에 저장된다. 이렇게 함으로써, 무조건으로 참조되는 블록의 논리적 다음 블록을 선반입하는 LRU-OBL 정책의 단점을 해결한다. 구체적으로, 선반입되었으나 결코 참조되지 않을, 흑은 실제로 참조된다고 할지라도 교체될 블록보다 더 나중에 참조될 블록들을 위해 재 참조될 가능성이 있는 블록들 을 교체하는 문제점들을 해결한다. $W^2R$ 알고리즘은 트레이스 기반 시뮬레이션을 통해 버퍼 캐쉬 적중률을 측정한 결과 2Q 알고리즘에 비해서는 최고 23.19 %, LRU-OBL 알고리즘에 비해서는 최고 10.25 % 의 성능향상을 나타낸다.

  • PDF

한계분석법과 유전알고리즘을 결합한 다단계 다계층 재고모형의 적정재고수준 결정 (Optimal Spare Part Level in Multi Indenture and Multi Echelon Inventory Applying Marginal Analysis and Genetic Algorithm)

  • 정성태;이상진
    • 경영과학
    • /
    • 제31권3호
    • /
    • pp.61-76
    • /
    • 2014
  • There are three methods for calculating the optimal level for spare part inventories in a MIME (Multi Indenture and Multi Echelon) system : marginal analysis, Lagrangian relaxation method, and genetic algorithm. However, their solutions are sub-optimal solutions because the MIME system is neither convex nor separable by items. To be more specific, SRUs (Shop Replaceable Units) are required to fix a defected LRU (Line Replaceable Unit) because one LRU consists of several SRUs. Therefore, the level of both SRU and LRU cannot be calculated independently. Based on the limitations of three existing methods, we proposes a improved algorithm applying marginal analysis on determining LRU stock level and genetic algorithm on determining SRU stock level. It can draw optimal combinations on LRUs through separating SRUs. More, genetic algorithm enables to extend the solution search space of a SRU which is restricted in marginal analysis applying greedy algorithm. In the numerical analysis, we compare the performance of three existing methods and the proposed algorithm. The research model guarantees better results than the existing analytical methods. More, the performance variation of the proposed method is relatively low, which means one execution is enough to get the better result.

라스트 레벨 캐쉬 성능 향상을 위한 캐쉬 교체 기법 연구 (A New Cache Replacement Policy for Improving Last Level Cache Performance)

  • 두 콩 튜안;손동오;김종면;김철홍
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.871-877
    • /
    • 2014
  • 캐쉬 교체 기법은 캐쉬 미스를 감소시키기 위해서 개발되었다. 마이크로프로세서와 주기억장치의 속도 차이를 해결하기 위해서는 캐쉬 교체 기법의 성능이 중요하다. 일반적인 캐쉬 교체 기법으로는 LRU 기법이 있으며 대부분의 마이크로프로세서에서 캐쉬 교체 기법으로 LRU 기법을 사용한다. 그러나, 최근의 연구에 따르면 LRU 기법과 최적 교체(OPT) 기법 간의 성능 차이는 매우 크다. LRU 기법의 성능은 많은 연구를 통해서 검증되었지만, 캐쉬 사상방식이 높아질수록 LRU 기법과 OPT 기법의 성능 차이는 증가한다. 본 논문에서는 기존의 LRU 기법을 활용하여 캐쉬 성능을 향상시키는 캐쉬 교체 기법을 제안하였다. 제안된 캐쉬 교체 기법은 캐쉬 블록의 접근율에 따라 교체 대상을 선정하여 캐쉬 블록을 교체시킨다. 제안된 캐쉬 교체 기법은 512KB L2 캐쉬에서 기존의 LRU 기법과 비교하여 평균 15%의 미스율을 감소시켰고, 프로세서 성능은 4.7% 향상됨을 알 수 있다.

멀티미디어 스트리밍 환경을 위한 캐쉬 성능평가 모델 설계 및 최적성 분석 (Design and Optimality Analysis of Cache Performance Model for Multimedia Streaming Environments)

  • 반효경;조경운
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권5호
    • /
    • pp.9-13
    • /
    • 2023
  • 멀티미디어 스트리밍 데이터는 용량이 매우 크고 순차적으로 접근이 이루어지는 특성이 있어 전통적인 캐슁 환경에서 입출력의 성능을 개선하기 위해 널리 사용되고 있는 LRU 알고리즘이 효과적이지 못한 것으로 알려져 있다. 이에 대한 실험적인 분석은 인터벌 기반 캐슁의 LRU 대비 성능 상의 비교 우위를 통해 입증된 바 있으나, 이론적인 근거가 증명되지는 않았다. 본 논문에서는 멀티미디어 스트리밍 환경을 위한 캐슁의 최적성을 분석하기 위해 캐쉬 성능평가 모델을 설계하고, 이론적으로 최적인 캐슁 알고리즘을 인터벌 캐슁에 기반해서 설계한다. 그런 다음 설계된 알고리즘이 스트리밍 데이터의 캐쉬 미스를 최소화하는 교체 알고리즘임을 제안된 모델에 근거한 최적성 분석을 통해 입증한다.

MST 알고리즘 기반 콘텐츠 전송 네트워크에 관한 연구 (Content Delivery Network Based on MST Algorithm)

  • 이형옥;강미영;남지승
    • 한국통신학회논문지
    • /
    • 제41권2호
    • /
    • pp.178-188
    • /
    • 2016
  • 스마트폰의 증가와 PC 성능 향상으로 유무선 통신망에 트래픽이 폭발적으로 증가하고 있다. 여기에는 페이스북, 유투브와 같은 멀티미디어 서비스와 파일 공유가 큰 부분을 차지하고 있다. CDN(Content Delivery Network)은 원거리에 있는 콘텐츠 사업자의 웹 서버에 저장된 콘텐츠를 이용자 근처 CDN 서버에 미리 저장, 콘텐츠 요구 발생 시 최적의 CDN 서버로부터 콘텐츠를 제공하는 콘텐츠 전송 기술이다. 본 논문에서는 콘텐츠 요청 메시지 전달에 Minimum Spanning Tree(MST) 알고리즘을 응용한 SCRP(Shortest Core Routing Path) 알고리즘을 사용해 CDN 서버와 클라이언트의 콘텐츠 전달에 이용되는 전체 트래픽 양을 최적화하였다. 또한 HC_LRU 캐시 알고리즘을 통해 캐시 적중률을 향상시킴으로써 콘텐츠 요청에 대한 평균 응답시간을 단축시켰다. 제안한 SCRP와 HC_LRU 알고리즘을 통해 트래픽을 지역화하고 병목현상을 방지하여 네트워크 자원을 효율적으로 사용하는 확장성 있는 콘텐츠 전송 네트워크 시스템을 구축할 수 있다.

플래시 메모리를 위한 Not-cold-Page 쓰기지연을 통한 LRU 버퍼교체 정책 개선 (Enhancing LRU Buffer Replacement Policy with Delayed Write of Not-cold-dirty-pages for Flash Memory)

  • 정호영;박성민;차재혁;강수용
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권9호
    • /
    • pp.634-641
    • /
    • 2006
  • 플래시 메모리는 비휘발성이며 빠른 I/O 처리 속도와 같은 많은 장점들이 있으나, in-placeupdate가 불가능하고 읽기/쓰기/지우기 작업의 속도가 다르다는 단점을 지니고 있다. 버퍼 캐시를 통해 플래시 메모리 기반 저장장치의 성능을 향상시키기 위해서는 수행 속도가 느림은 물론 지우기 작업의 수행 횟수에 직접적인 영향을 끼치는 쓰기 작업의 횟수를 줄이는 알고리즘이 필요하다. 본 논문에서는 기존의 LRU 버퍼교체 정책에 not-cold-dirty-page에 대한 교체를 지연하는 알고리즘을 적용한 새로운 버퍼교체 정책(LRU-Dirty Page Later-Cold Detection, 이하 LRU-DPL-CD)을 제시하고 성능을 분석한다. 트레이스 기반 시뮬레이션 실험에서 LRU-DPL-CD는 버퍼 적중률의 큰 감소 없이 쓰기 작업과 지우기 작업의 횟수를 감소시켰으며, 그 결과 전체 플래시 메모리의 I/O 수행속도가 증가하는 결과를 보였다.