• 제목/요약/키워드: LRU algorithm

검색결과 42건 처리시간 0.018초

저전력 집합연관 캐시를 위한 효과적인 알고리즘 (Effective Algorithm for the Low-Power Set-Associative Cache Memory)

  • 정보성;이정훈
    • 대한임베디드공학회논문지
    • /
    • 제9권1호
    • /
    • pp.25-32
    • /
    • 2014
  • In this paper, we proposed a partial-way set associative cache memory with an effective memory access time and low energy consumption. In the proposed set-associative cache memory, it is allowed to access only a 2-ways among 4-way at a time. Choosing ways to be accessed is made dynamically via the least significant two bits of the tag. The chosen 2 ways are sequentially accessed by the way selection bits that indicate the most recently referred way. Therefore, each entry in the way has an additional bit, that is, the way selection bit. In addition, instead of the 4-way LRU or FIFO algorithm, we can utilize a simple 2-way replacement policy. Simulation results show that the energy*delay product can be reduced by about 78%, 14%, 39%, and 15% compared with a 4-way set associative cache, a sequential-way cache, a way-tracking cache, and a way cache respectively.

AN ADVACNCED DISK BLOCK CACHING ALGORITHM FOR DISK I/O SUB-SYSTEM

  • Jung, Soo-Mok;Rho, Kyung-Taeg
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제11권3호
    • /
    • pp.43-52
    • /
    • 2007
  • A hard disk, which can be classified as an external storage is usually capacious and economical. In spite of the attractive characteristics and efforts on the performance improvement, however, the operation of the hard disk is apparently slower than a processor and the advancement has also been slowly conducted since it is based on mechanical process. On the other hand, the advancement of the processor has been drastically performed as semiconductor technology does. So, disk I/O sub-system becomes bottleneck of computer systems' performance. For this reason, the research on disk I/O sub-system is in progress to improve computer systems' performance. In this paper, we proposed multi-level LRU scheme and then apply it to the computer systems with buffer cache and disk cache. By applying the proposed scheme to computer systems, the average access time to disk blocks can be decreased. The efficiency of the proposed algorithm was verified by simulation results.

  • PDF

프록시 서버를 이용한 DAVIC VOD 시스템의 설계 (Server network architectures for VOD service)

  • 안경아;최훈
    • 한국통신학회논문지
    • /
    • 제23권5호
    • /
    • pp.1229-1240
    • /
    • 1998
  • VOD 서비스 시스템에서의 시간 지연을 줄이기 위하여 캐싱 기능을 갖는 프록시 서버를 이용한 DAVIC VOD 서비스 제공 방식을 제안한다. 프록시 서버는 서비스 제공자와 사용자 사이에 위치하며 서비스 제공자가 보유한 일부 프로그램을 캐싱하여 사용자에게 제공한다. 프록시 서버를 사용하면 서비스 제공자와 네트워크의 부하를 줄일 수있다. 프록시 서버의 동작은 요구된 프로그램이 자신의 디스크에 있는 경우와 없는 경우로 구분된다. 첫번째 경우 프록시 서버가 서비스를 제공하고 두번째 경우는 서비스 제공자로 부터 프로그램을 수신하여 사용자에게 제공하고 동시에 자신의 디스크에 저장하여 캐싱한다. 프록시 서버의 저장공간이 부족하면 캐시 대치 알고리즘을 수행한다. 캐시 대치 알고리즘으로 잘 알려진 LRU. LFU, FIFO중에서 제안한 프록시 서버에 가장 효과적인 방식이 LFU 방법을 이용하는 것이 3개중 가장 효과적임을 시뮬레이션을 이용하여 보였다.

  • PDF

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.

혼합 지연 모델에 기반한 비동기 명령어 캐시 설계 (Design of an Asynchronous Instruction Cache based on a Mixed Delay Model)

  • 전광배;김석만;이제훈;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권3호
    • /
    • pp.64-71
    • /
    • 2010
  • 최근에는 프로세서의 고성능화에 따라 명령어 캐시와 데이타 캐시를 분리하는 구조의 설계가 일반적이다. 본 논문에서는 혼합 지연모델을 갖는 비동기식 명령어 캐쉬구조를 제안하며, 데이타 패스에는 지연무관인 회로모델을 적용하고 메모리 에는 번들지연모델을 도입하였다. 요소기술로는 명령어 캐시는 CPU, 프로그램 메모리와 4-상 핸드쉐이크(hand-shake) 프로토콜로 데이터를 전달하고, 8-K바이트, 4상 연관의 맵핑 구조를 가지며 Pseudo-LRU 엔트리 교체알고리즘을 채택하였다. 성능분석을 위하여 제안된 명령어 캐시를 게이트레벨로 합성하고 32비트 임베디드 프로세서와 연동하는 플랫폼을 구축하였다. 구축한 플랫폼에서 MI벤치마크 프로그램을 테스트하여 99%의 캐시히트율과 레이턴시가 68% 감소하는 결과를 얻었다.

Head-End-Network에서 Web-Caching을 사용한 VOD 서버 (VOD Server using Web-Caching in Head-End-Network)

  • 김백현;황태준;김익수
    • 인터넷정보학회논문지
    • /
    • 제5권1호
    • /
    • pp.15-23
    • /
    • 2004
  • 본 논문은 멀티미디어 서버의 과도한 부하는 물론 네트워크 자원의 비효율적인 사용과 같은 문제점을 해결하기 위한 단말-네트워크(HNET) 내에 새로운 분산 웹-캐싱 전략에 대한 다루고 있다. 제안된 분산 웹-캐싱은 인근에 위치하는 단말-노드들에 분산 망을 구현하여 특정 단말-노드에 부하가 집중되지 않고, HNET의 분산 단말-노드들에 복사본이 존재하지 않는 장점을 갖고 있다. 제안된 웹-캐싱 기법은 각 단말 노드들이 동일한 비디오 서비스를 요청할 경우 HNET내의 스위칭 에이전트의 제어아래 서버로부터 비디오의 일부 스트림만을 분산 저장하며, 서비스의 제공은 클라이언트들이 분산 단말-노드에 교호적으로 접속하여 서비스 받도록 한다. 새로운 Web-caching 기법에 사용된 제거 알고리듬은 LFU, LRU와 단말간 지연을 줄이기 위해 비디오의 첫 번째 스트림을 마지막으로 제거하는 방식을 조합하여 시뮬레이션을 수행하였다.

  • PDF

주문형 전자신문 시스템에서 사용자 접근패턴을 이용한 기사 프리패칭 기법 (Article Data Prefetching Policy using User Access Patterns in News-On-demand System)

  • 김영주;최태욱
    • 한국정보처리학회논문지
    • /
    • 제6권5호
    • /
    • pp.1189-1202
    • /
    • 1999
  • As compared with VOD data, NOD article data has the following characteristics: it is created at any time, has a short life cycle, is selected as not one article but several articles by a user, and has high access locality in time. Because of these intrinsic features, user access patterns of NOD article data are different from those of VOD. Thus, building NOD system using the existing techniques of VOD system leads to poor performance. In this paper, we analysis the log file of a currently running electronic newspaper, show that the popularity distribution of NOD articles is different from Zipf distribution of VOD data, and suggest a new popularity model of NOD article data MS-Zipf(Multi-Selection Zipf) distribution and its approximate solution. Also we present a life cycle model of NOD article data, which shows changes of popularity over time. Using this life cycle model, we develop LLBF (Largest Life-cycle Based Frequency) prefetching algorithm and analysis he performance by simulation. The developed LLBF algorithm supports the similar level in hit-ratio to the other prefetching algorithms such as LRU(Least Recently Used) etc, while decreasing the number of data replacement in article prefetching and reducing the overhead of the prefetching in system performance. Using the accurate user access patterns of NOD article data, we could analysis correctly the performance of NOD server system and develop the efficient policies in the implementation of NOD server system.

  • PDF

인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책 (A novel page replacement policy associated with ACT-R inspired by human memory retrieval process)

  • 노홍찬;박상현
    • 정보처리학회논문지D
    • /
    • 제18D권1호
    • /
    • pp.1-8
    • /
    • 2011
  • 자주 접근되는 데이터에 대해서 빠른 접근을 보장하기 위해 사용되는 임시저장소인 캐쉬는 컴퓨터 시스템 내에서 다양한 계층에 존재하며, 이러한 캐쉬 저장 공간 내에서 효율적으로 데이터를 관리하기 위해 다양한 페이지 교체 알고리즘들이 연구되어 왔다. 대부분의 페이지 교체 알고리즘들은 얼마나 최근에 데이터가 접근 되었는가 또는 얼마나 자주 접근되었는가를 바탕으로 향후 다시 접근될 것 같은 데이터들을 캐쉬 안에 유지하는 휴리스틱 방법을 취하고 있다. 이러한 컴퓨터 내에서의 데이터의 인출 과정은 인간의 기억 인출 과정과 유사하며, 인간의 기억 인출 과정 역시 캐쉬 구조처럼 기억이 얼마나 최근에 그리고 자주 인출되었는가에 의해 그 기억 인출의 확률과 인출속도가 결정된다는 것이 최근 연구에 의해서 밝혀진바 있다. 본 연구에서는 인간의 기억 인출 과정에서의 과거 해당 기억에 대한 인출 기록들의 최근성과 빈도가 인출 확률에 영향을 미치는 관계를 분석하고 이를 페이지 교체 알고리즘에 응용하여 기존의 페이지 교체 알고리즘의 성능을 개선하였다. 또한, 실험을 통해 제안하는 페이지 교체 알고리즘이 기존에 데이터베이스 버퍼 캐쉬에서 가장 좋은 성능을 보이는 것으로 알려진 LRFU보다 파라미터에 민감하지 않고 우수한 성능을 보인다는 것을 입증하였다.

캐쉬 메모리가 버스 트래픽에 끼치는 영향 (The Effects of Cache Memory on the System Bus Traffic)

  • 조용훈;김정선
    • 한국통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.224-240
    • /
    • 1996
  • It is common sense for at least one or more levels of cache memory to be used in these day's computer systems. In this paper, the impact of the internal cache memory organization on the performance of the computer is investigated by using a simulator program, which is wirtten by authors and run on SUN SPARC workstation, with several real execution, with several real execution trace files. 280 cache organizations have been simulated using n-way set associative mapping and LRU(Least Recently Used) replacement algorithm with write allocation policy. As a result, 16-way setassociative cache is the best configuration, and when we select 256KB cache memory and 64 byte line size, the bus traffic ratio was decreased compared to that of the noncache system so that a single bus could support almost 7 processors without any delay and degradationof high ratio(hit ratio was 99.21%). The smaller the line size we choose, the little lower hit ratio we can get, but the more processors can be supported by a single bus(maximum 18 processors). Therefore, using a proper cache memory organization can make a single bus structure be able to support multiple processors without any performance degradation.

  • PDF

CCN에서 적중률 향상을 위한 지연감쇠 LFU(DA-LFU) 캐시 교체 정책 (Delay Attenuation LFU (DA-LFU) Cache Replacement Policy to Improve Hit Rates in CCN)

  • 반빈;권태욱
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권3호
    • /
    • pp.59-66
    • /
    • 2020
  • 현재 네트워크의 트래픽 부하 급증과 같은 문제를 해결하기 위해 기존의 호스트 기반 네트워크와 완전히 다른 아키텍처를 가진 콘텐츠 중심네트워크(CCN)가 등장하였다. 네트워크 상 모든 라우터가 캐시 한다는 특징을 가진 CCN의 성능을 향상시키기 위해 캐시 교체 정책에 대한 연구가 매우 활발하다. 따라서 본 논문에서는 실제 네트워크 상황을 고려하여 요청되는 콘텐츠의 인기도가 끊임없이 변화하는 상황에 적합한 캐시 교체 정책을 제안한다. 제안하는 알고리즘의 성능을 평가하기 위해 콘텐츠의 인기도가 지속적으로 변화하는 환경에서 실험하였고, 적중률 비교와 서버 부하분석을 통해 기존의 교체정책보다 우수함을 확인하였다.