• 제목/요약/키워드: cache replacement strategy

검색결과 16건 처리시간 0.01초

플래시 변환 계층을 위한 DPW-LRU 캐시 교체 알고리즘 분석 및 개선 (Analysis and Improvement of the DPW-LRU Cache Replacement Algorithm for Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권6호
    • /
    • pp.289-297
    • /
    • 2020
  • Although flash disks are being used widely instead of hard disks, it is difficult to optimize for effective utilization of flash disks because overwrite in place is impossible and the power consumption and time required for read, write, and erase operations are all different. One of these optimization issues is a cache management strategy to minimize write operations. The cache operates at two levels: an operating system equipped with flash disks and a translation layer within the flash disk. Most studies deal with the operating system-level cache strategy. In this study, we implement and analyse the DPW-LRU algorithm which is one of the recently proposed operating system cache replacement algorithms to apply to FTL, and grope with some improvements. As a result of the experiment, the DPW-LRU algorithm maintained superiority even in the FTL environment, and showed better performance with a slight improvement.

이동 컴퓨팅 환경에서 요구 패턴 분석을 기반으로 하는 캐쉬 대체 전략 (A Cache Replacement Strategy based on the Analysis of Request Patterns in Mobile Computing Environments)

  • 이윤장;신동천
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권7_8호
    • /
    • pp.780-791
    • /
    • 2003
  • 낮은 대여폭을 갖는 이동 컴퓨팅 환경에서 캐슁은 요구 경쟁을 감소시킴으로서 응답시간을 향상시킬수 있는 유용한 방법이다. 전통적인 캐쉬 기반의 시스템에서는 히트율을 향상시키는 것이 일반적으로 빠른 응답시간을 위한 주요한 관심사중의 하나였다. 그렇지만, 이동 컴퓨팅 환경에서는 히트율 뿐만 아니라 미스 비용의 고려도 필요하다. 본 논문에서는 풀 기반의 데이타 분산 시스템에서 새로운 캐쉬 대체 전략을 제시하고 시뮬레이션을 통하여 성능을 평가한다. 제시한 전략은 인기도와 대기 시간을 함께 고려하여 인기도와 대기 시간을 곱한 값 중에서 가장 작은 값을 갖는 페이지를 대체 페이지로 선정한다.

효율적인 버퍼 캐시 관리를 위한 동적 캐시 분할 블록교체 기법 (Dynamic Cache Partitioning Strategy for Efficient Buffer Cache Management)

  • 진재선;허의남;추현승
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.35-44
    • /
    • 2003
  • The effectiveness of buffer cache replacement algorithms is critical to the performance of I/O systems. In this paper, we propose the degree of inter-reference gap (DIG) based block replacement scheme that retains merits of the least recently used (LRU) such as simple implementation and good cache hit ratio (CHR) for general patterns of references, and improves CHR further. In the proposed scheme, cache blocks with low DIGs are distinguished from blocks with high DIGs and the replacement block is selected among high DIGs blocks as done in the low inter-reference recency set (LIRS) scheme. Thus, by having the effect of the partitioning the cache memory dynamically based on DIGs, CHR is improved. Trace-driven simulation is employed to verified the superiority of the DIG based scheme and shows that the performance improves up to about 175% compared to the LRU scheme and 3% compared to the LIRS scheme for the same traces.

  • PDF

비디오를 위한 효율적인 프록시 서버 캐쉬의 관리 (Efficient Management of Proxy Server Cache for Video)

  • 조경산;홍병천
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.25-34
    • /
    • 2003
  • Because of explosive growth in demand for web-based multimedia applications, proper proxy caching for large multimedia object (especially video) has become needed. For a video object which is much larger in size and has different access characteristics than the traditional web object such as image and text, caching the whole video file as a single web object is not efficient for the proxy cache. In this paper, we propose a proxy caching strategy with the constant-sized segment for video file and an improved proxy cache replacement policy. Through the event-driven simulation under various conditions, we show that our proposal is more efficient than the variable-sized segment strategy which has been proven to have higher hit ratio than other traditional proxy cache strategies.

  • PDF

데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계 (Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search)

  • 김광중;고현;김영자;이연식
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.153-166
    • /
    • 2005
  • 기존 단일 캐시 구조는 각기 사용되는 교체 전략에 따라 적중률의 차이를 보임으로써 보다 향상된 적중률을 제공하며 서버 및 네트워크 트래픽을 감소시키는 새로운 캐시 구조가 필요하다. 그러므로 본 논문에서는 지속적인 정보 제공 및 동일한 정보의 중복 요청으로 인한 서버 과부하 및 네트워크 트래픽을 감소시키며 적중률을 향상시키는 이중 캐시를 이용한 푸시 에이전트 모델을 설계한다. 제안된 푸시 에이전트 모델에서는 서버 및 네트워크 부하를 감소시키기 위해 두 개의 캐시 저장소를 이용하여 단계적인 캐시 교체를 수행하는 이중 캐시 구조를 제안하며, 또한 캐시 내 데이터들의 효용성을 증가시키기 위해 Log(Size)+LRU, LFU, PLC의 교체 정책을 기반으로 데이터 갱신과 삭제를 수행하는 새로운 캐시 교체기법 및 알고리즘을 제시한다. 그리고 실험을 통해 이중 캐시 푸시 에이전트 모델에 대한 성능을 평가한다.

  • PDF

Pull 기반의 데이터 방송 환경에서 최근성을 고려한 캐쉬 대체 전략 (A Cache Replacement Strategy Considering the Recentness in Pull-Based Data Broadcasting Environments)

  • 신동천
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.599-601
    • /
    • 2003
  • pull 기반의 데이터 방송 환경에서는 클라이언트의 데이터 요청을 최소화하기 위하여 캐쉬의 도입이 특히 필요하다. 이러한 환경에서 캐쉬의 도입 효과를 극대화하기 위해서는 히트율 뿐만 아니라 미스 비용도 고려한 효율적인 캐쉬 대체 전략의 수립이 무엇보다도 시스템 성능에 중요한 영향을 미친다. 본 논문에서는 클라이언트의 데이터 액세스 빈도수 및 대기 시간 등을 고려하면서 최신성을 합께 반영하는 캐쉬 대체 전략을 제안한다.

  • PDF

주문형 오디오 시스템을 위한 웹 캐시 구조의 설계 및 평가 (Design and Evaluation of a Web Cache Architecture for Audio-On-Demand Systems)

  • 이태원;심마로;배진욱;이석호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제27권2호
    • /
    • pp.209-215
    • /
    • 2000
  • 인터넷을 통해 멀티미디어 데이타를 서비스하는 주문형 오디오 서비스(AOD, Audio On Demand)와 같은 시스템에서는 기존의 운영체제가 반복적으로 요청되는 데이타를 효과적으로 처리하지 못 하고 있다. 본 논문에서는 웹 캐시 (Web Cache) 구조를 제안한다. 이것은 과거 요청들과의 시간 간격 정보를 기초로 가까운 미래에 다시 요청될 곡들을 효과적으로 예측하고 웹 캐시에 유지하므로서 효율적인 서비스를 제공하도록 한다. 웹 캐시의 교체 전략으로는 LFRR(Least Frequently Requested Recently)을 제안한다. LFRR은 가까운 미래에 다시 요청될 확률이 적은 곡을 교체한다. 어느 한 곡이 다시 요청될 확률은 과거 요청들과의 시간 간격의 평균값이 작을수록 높게 된다. 제안된 웹 캐시의 이점은 디스크 액세스 횟수를 현저하게 줄일 수 있고 한정된 자원으로 더 많은 수의 동시 사용자를 지원할 수 있다는 것이다. 실제로 운영되고 있는 AOD 사이트의 요청 자료를 이용하여 제안된 웹 캐시를 시뮬레이션한 결과 높은 성능 향상을 얻을 수 있음을 보였다.

  • PDF

스트리밍 데이터의 선인출에 사용되는 참조예측표의 스칼라 우선 교체 전략 (Scalar First Replacement Strategy for Reference Prediction Table Used in Prefetching Streaming Data)

  • 임철후;전영숙;김석일;전중남
    • 정보처리학회논문지A
    • /
    • 제11A권3호
    • /
    • pp.163-172
    • /
    • 2004
  • 멀티미디어 응용프로그램의 데이터는 주소 간격이 일정한 스트리밍 패턴으로 참조되는 특성이 있다. 이러한 특성을 선인출방법에 적용하여 멀티미디어 응용프로그램의 수행속도를 향상시킬 수 있다. 참조예측표에 의한 선인출방법은 메모리 참조명령어의 과거 기록을 이용하여 규칙적으로 참조되는 메모리주소를 예측한다. 이 논문은 참조예측표를 사용하는 하드웨어 기반의 규칙 선인출방법에서 효율적인 참조예측표 운영방법을 제안한다. 참조예측표에 입력되는 메모리 참조명령어는 스칼라데이터 참조명령어와 스트리밍데이터 참조명령어로 구성된다. 스칼라데이터 참조명령어는 선인출에 사용되지 않으므로 스칼라데이터 참조명령어를 우선적으로 교체함으로서, 참조예측표를 효과적으로 사용할 수 있다. 이방법은 기존 FIFO 방법과 비교할 때, 선인출에 사용되는 스트리밍데이터 참조명령어를 참조예측표에 더 오래 유지함으로써, 선인출 성능이 향상된다.

이중 캐쉬 서버를 사용한 실시간 데이터의 좡대역 네트워크 대역폭 감소 정책 (A Strategy To Reduce Network Traffic Using Two-layered Cache Servers for Continuous Media Data on the Wide Area Network)

  • 박용운;백건효;정기동
    • 한국정보처리학회논문지
    • /
    • 제7권10호
    • /
    • pp.3262-3271
    • /
    • 2000
  • 연속형 미디어 데이터는 대용량이고 실시간으로 전송되어야 하므로 데이터 전송 시에 네트워크에 많은 부하를 주게 된다. 이러한 네트워크는 부하 문제를 해결하기 위하여 프락시 서버가 사용되며 프락시 서버에는 자주 접근되는 데이터가 저장되어 원래의 데이터가 존재하는 서버로의 네트워크 교통량을 줄이게 된다. 그러나 현재의 프락시 서버는 텍스트나 이미지 데이터등의 비 연속형 데이터만을 고려하여 설계되었으므로 연속형 미디어 데이터의 캐슁에는 적합하지 않다. 그러므로 본 연구에서는 연속형 미디어 데이터의 특징을 고려하여 프락시 서버를 두 계층으로 나누어 배치하여 데이터를 캐슁하고 데이터의 접근 패턴과 크기를 동시에 고려한 재할당 정책을 사용하여 캐쉬공간을 관리하는 프락시 서버 관리 정책을 제안한다. 제안된 정책에서는 각각의 LAN 마다 하나의 프락시 서버가 존재하며 각 LAN은 여러 개의 서브LAN으로 나뉘어 져서 이러한 각각의 서브 LAN에는 또한 하나의 서브 LAN 프락시가 존재한다. 이에 병행하여 각각의 데이터들도 각각 전방 분할(front-end partition)과 후방 분할(rear-end partition)로 나뉘어져서 해당 데이터의 참조 유형에 따라 하나의 프락시에 동시에 저장되기도 하고 LAN 캐쉬 서버와 서브 LAN 캐쉬 서버에 각각 따로 저장되기도 한다. 이러한 정책을 사용함으로써 전체 데이터를 단위로 캐슁할 경우보다 데이터공간의 할당과 재할당에 따른 오버헤드가 감소함으로써 궁극적으로는 원래의 저장 서버로의 네트워크 교통량을 보다 더 감소시킬 수 있다.

  • PDF

SSD FTL 캐시 알고리즘 분석 및 제언 (Analysis and Advice on Cache Algorithms of SSD FTL)

  • 이형봉;정태윤
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권1호
    • /
    • pp.1-8
    • /
    • 2023
  • SSD는 이미 할당된 페이지에 대한 제자리 덮어쓰기가 불가능하므로 쓰기 연산이 있을 때마다 새로운 클린 페이지로의 대체가 필요하다. 이 문제를 지원하기 위해 SSD는 운영체제의 파일시스템에서 관리하는 논리 페이지를 현재 할당된 물리 페이지로 매핑하는 플래시 변환 계층인 FTL을 내부에 둔다. 쓰기 연산으로 버려진 SSD 페이지는 초기화 작업을 거쳐 재활용되어야 하는데, 그 횟수에 제한이 있기 때문에 FTL은 기본인 페이지 매핑 기능 외에 쓰기 횟수를 줄일 수 있는 캐시 기능을 제공한다. 이 연구에서는 쓰기 횟수를 줄이기 위한 FTL의 캐시 방법론에 집중하여 관련된 알고리즘들을 분석하고, 쓰기 전용 캐시 전략을 제안한다. 시뮬레이터를 사용하여 쓰기 전용 캐시를 실험한 결과 최대 29%의 개선 효과를 보였다.