• 제목/요약/키워드: cache replacement

검색결과 168건 처리시간 0.02초

재구성 가능한 라스트 레벨 캐쉬 구조를 위한 코어 인지 캐쉬 교체 기법 (Core-aware Cache Replacement Policy for Reconfigurable Last Level Cache)

  • 손동오;최홍준;김종면;김철홍
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권11호
    • /
    • pp.1-12
    • /
    • 2013
  • 멀티코어 프로세서에서 라스트 레벨 캐쉬는 코어와 메모리의 속도 차이를 줄여주는 역할을 하는 중요한 하드웨어 자원이다. 때문에 라스트 레벨 캐쉬의 효율적인 관리는 프로세서의 성능에 큰 영향을 미친다. 라스트 레벨 캐쉬를 구성하는 공유/비공유 캐쉬는 코어들이 공유하는 데이터와 각 코어의 독립된 데이터를 각각 적재한다. 최근 많은 연구를 통해 라스트 레벨 캐쉬 관리기법이 연구되었지만 주로 공유 캐쉬에 대한 연구만 이뤄지고 있으며 라스트 레벨 캐쉬의 비공유 캐쉬에 대한 연구는 아직 미약하다. 라스트 레벨 캐쉬의 비공유 캐쉬는 각 코어에 동일한 영역이 할당되기 때문에 코어별 작업량이 다를 경우 캐쉬 관리가 효과적이지 않다. 본 논문에서는 라스트 레벨 캐쉬 중 비공유 캐쉬의 효율적인 관리를 위해 코어 인지 캐쉬 교체 기법을 제안한다. 제안된 코어 인지 캐쉬 교체 기법은 비공유 캐쉬를 동적으로 재구성함으로써, 라스트 레벨 캐쉬의 적중률을 향상시킨다. 또한, 우리는 캐쉬 교체 기법의 성능 향상을 위해 2비트 포화 카운터를 적용하였다. 실험 결과 기존의 교체 기법과 비교하여 9.23%의 적중률 향상과 12.85%의 라스트 레벨 캐쉬 접근 시간 감소의 효과가 있었다.

이동 컴퓨팅 환경에서 요구 패턴 분석을 기반으로 하는 캐쉬 대체 전략 (A Cache Replacement Strategy based on the Analysis of Request Patterns in Mobile Computing Environments)

  • 이윤장;신동천
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권7_8호
    • /
    • pp.780-791
    • /
    • 2003
  • 낮은 대여폭을 갖는 이동 컴퓨팅 환경에서 캐슁은 요구 경쟁을 감소시킴으로서 응답시간을 향상시킬수 있는 유용한 방법이다. 전통적인 캐쉬 기반의 시스템에서는 히트율을 향상시키는 것이 일반적으로 빠른 응답시간을 위한 주요한 관심사중의 하나였다. 그렇지만, 이동 컴퓨팅 환경에서는 히트율 뿐만 아니라 미스 비용의 고려도 필요하다. 본 논문에서는 풀 기반의 데이타 분산 시스템에서 새로운 캐쉬 대체 전략을 제시하고 시뮬레이션을 통하여 성능을 평가한다. 제시한 전략은 인기도와 대기 시간을 함께 고려하여 인기도와 대기 시간을 곱한 값 중에서 가장 작은 값을 갖는 페이지를 대체 페이지로 선정한다.

XML 시맨틱 캐쉬의 교체 기법 (A Technique of Replacing XML Semantic Cache)

  • 홍정우;강현철
    • 한국전자거래학회지
    • /
    • 제12권3호
    • /
    • pp.211-234
    • /
    • 2007
  • 전자 거래에 있어 XML로 기술된 데이터가 증가하고, 이로부터 효율적인 질의 처리를 수행하는 기능의 중요성이 커지고 있다. 질의 처리 성능을 향상하기 위해 XML질의 결과를 캐쉬하는 방법이 주목을 받고 있는데 XML 질의 캐쉬 기법을 활용하기 위해서는 효율적인 캐쉬 교체 기법이 요구된다. 기존의 XML 캐쉬 교체기법에는 질의 결과를 교체 단위로 하는 방법과 질의 결과 내의 각 경로들을 교체 단위로 하는 방법이 있다. 첫 번째 방법은 간단한 운용이 가능하지만 효율적이지 못하고 두 번째 방법은 첫 번째 방법에 비해 효율적이지만 교체 단위 크기의 차이가 커서 캐쉬의 효율을 높이는 데 한계가 있다. 본 논문에서는 위 두 방법의 단점을 해결하기 위해 XML질의 결과 내의 모든 엘리먼트를 교체 단위로 하는 방법을 제시한다. 이는 교체 단위의 크기가 작고 최대 크기와 최소 크기의 차이도 작으므로 새로 캐쉬에 추가할 데이터의 크기보다 과도하게 큰 희생자가 발생하지 않고, 교체 후 캐쉬 내의 사용하지 않는 공간도 작아지게 되어 캐쉬의 효율성을 크게 향상시킬 수 있는 방법이다. 캐쉬 적중 빈도, 최근 접근 시간, 인출 지연 시간, XML 시맨틱 영역의 크기, XML 시맨틱 영역 내의 엘리먼트 크기 등을 종합적으로 고려하여 교체 희생자를 선택하기 위한 교체 함수를 바탕으로 하는 XML 시맨틱 캐쉬 교체 기법을 제시한다. 본 논문에서 제시한 기법을 적용한 XML 시맨틱 캐쉬 시스템의 프로토타입을 구현하여 실제 LAN 환경에서 실험하였다. 실험 결과 기존의 XML 캐쉬 교체 기법에 비해 본 논문에서 제시한 XML 시맨틱 캐쉬 교체 기법이 더욱 효율적이었다

  • PDF

하이브리드 메인 메모리와 스토리지의 특성을 고려한 버퍼 캐시 교체 정책 (A Buffer Cache Replacement Algorithm for Considering both Hybrid Main Memory and Storage)

  • 강동현;엄영익
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.947-953
    • /
    • 2015
  • PRAM은 바이트 단위의 쓰기와 비휘발성의 특징을 모두 가지고 있으며, DRAM보다 높은 밀 집도가 기대되기 때문에 DRAM을 대체할 수 있을 것으로 예상된다. 이에, PRAM 기반의 버퍼 캐시 교체정책에 대한 연구가 활발하게 진행되고 있다. 그러나 대부분의 기존 연구는 PRAM의 수명 및 느린 쓰기 성능에만 집중함으로써 PRAM의 바이트 단위의 쓰기 성능을 제한적으로 이용한다. 이에, 본 논문에서는 PRAM의 바이트 단위의 쓰기 성능과 스토리지의 성능을 모두 고려한 새로운 버퍼 캐시 교체 정책을 제안 한다. 제안 기법은 바이트 단위의 쓰기 성능을 이용하기 위해 작은 크기의 쓰기 요청이 빈번한 페이지를 PRAM에 유지시키며 DRAM과 PRAM사이의 선택적 페이지 이동을 통해 PRAM의 쓰기 횟수를 감소시킨다. 실험 결과, 제안 기법은 CLOCK 알고리즘에 비해 최고 92%까지 PRAM의 쓰기 횟수를 감소시키고 PRAM 테스트 보드에서 최대 62%까지 수행시간을 향상시키는 것을 확인하였다.

Study on the Performance Evaluation and Analysis of Mobile Cache Memory

  • Lee, Sangmin;Kim, Jongwan;Kim, Ji Young;Oh, Dukshin
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권6호
    • /
    • pp.99-107
    • /
    • 2020
  • 본 논문에서는 모바일 기기에서 앱 실행 시 데이터 접근 속도를 향상하기 위해 사용하는 모바일 캐시의 특징을 분석하고 캐시 데이터 접근 실험을 통해 모바일 캐시의 중요성을 검증한다. 지난 10년간 모바일 기기 시장은 빠른 속도로 성장하였지만, 배터리가 제한적이고, 기기의 크기와 가격이 고려돼야 하므로 속도가 빠른 하드웨어를 사용하기 어렵다. 따라서 캐시 메모리와 같이 메모리 완충 구조를 통해 성능을 보완한다. 본 논문의 주요분석 대상은 캐시 메모리 크기, 캐시의 계층구조 그리고 교체방식과 그에 따른 모바일 성능을 확인한다. 시뮬레이션 데이터는 마이크로프로세서 시스템 연구에서 캐시 성능 확인용으로 사용한 데이터를 사용하였다. 실험결과 모바일 기기에서 캐시 메모리를 사용할 때 데이터에 대한 평균 접근 속도는 캐시 메모리가 없을 때 보다 10배의 성능향상을 보였으며 결과적으로 캐시 메모리는 같은 사양일 때 모바일 기기의 성능향상에 도움이 되는 것으로 나타났다.

An ICN In-Network Caching Policy for Butterfly Network in DCN

  • Jeon, Hongseok;Lee, Byungjoon;Song, Hoyoung;Kang, Moonsoo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권7호
    • /
    • pp.1610-1623
    • /
    • 2013
  • In-network caching is a key component of information-centric networking (ICN) for reducing content download time, network traffic, and server workload. Data center network (DCN) is an ideal candidate for applying the ICN design principles. In this paper, we have evaluated the effectiveness of caching placement and replacement in DCN with butterfly-topology. We also suggest a new cache placement policy based on the number of routing nodes (i.e., hop counts) through which travels the content. With a probability inversely proportional to the hop counts, the caching placement policy makes each routing node to cache content chunks. Simulation results lead us to conclude (i) cache placement policy is more effective for cache performance than cache replacement, (ii) the suggested cache placement policy has better caching performance for butterfly-type DCNs than the traditional caching placement policies such as ALWASYS and FIX(P), and (iii) high cache hit ratio does not always imply low average hop counts.

Cache-Filter: A Cache Permission Policy for Information-Centric Networking

  • Feng, Bohao;Zhou, Huachun;Zhang, Mingchuan;Zhang, Hongke
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권12호
    • /
    • pp.4912-4933
    • /
    • 2015
  • Information Centric Networking (ICN) has recently attracted great attention. It names the content decoupling from the location and introduces network caching, making the content to be cached anywhere within the network. The benefits of such design are obvious, however, many challenges still need to be solved. Among them, the local caching policy is widely discussed and it can be further divided into two parts, namely the cache permission policy and the cache replacement policy. The former is used to decide whether an incoming content should be cached while the latter is used to evict a cached content if required. The Internet is a user-oriented network and popular contents always have much more requests than unpopular ones. Caching such popular contents closer to the user's location can improve the network performance, and consequently, the local caching policy is required to identify popular contents. However, considering the line speed requirement of ICN routers, the local caching policy whose complexity is larger than O(1) cannot be applied. In terms of the replacement policy, Least Recently Used (LRU) is selected as the default one for ICN because of its low complexity, although its ability to identify the popular content is poor. Hence, the identification of popular contents should be completed by the cache permission policy. In this paper, a cache permission policy called Cache-Filter, whose complexity is O(1), is proposed, aiming to store popular contents closer to users. Cache-Filter takes the content popularity into account and achieves the goal through the collaboration of on-path nodes. Extensive simulations are conducted to evaluate the performance of Cache-Filter. Leave Copy Down (LCD), Move Copy Down (MCD), Betw, ProbCache, ProbCache+, Prob(p) and Probabilistic Caching with Secondary List (PCSL) are also implemented for comparison. The results show that Cache-Filter performs well. For example, in terms of the distance to access to contents, compared with Leave Copy Everywhere (LCE) used by Named Data Networking (NDN) as the permission policy, Cache-Filter saves over 17% number of hops.

분산 환경에서의 객체 캐슁 (DOC: A Distributed Object Caching System for Information Infrastructure)

  • 이태희;심준호;이상구
    • 한국전자거래학회:학술대회논문집
    • /
    • 한국전자거래학회 2003년도 종합학술대회 논문집
    • /
    • pp.249-254
    • /
    • 2003
  • Object caching is a desirable feature to improve the both scalability and performance of distributed application systems for information infrastructure, the information management system leveraging the power of network computing. However, in order to exploit such benefits, we claim that the following problems: cache server placement, cache replacement, and cache synchronization, should be considered when designing any object cache system. We are under developing DOC: a Distributed Object Caching, as a part of building our information infrastructures. In this paper, we show how each problem is inter-related, and focus to highlight how we handle cache server deployment problem

  • PDF

이기종 저장장치를 위한 제거 비용 평가 기반 캐시 관리 기법 (A Cache Management Technique Based on Eviction Cost Estimation for Heterogeneous Storage Devices)

  • 박세진;박찬익
    • 대한임베디드공학회논문지
    • /
    • 제7권3호
    • /
    • pp.129-134
    • /
    • 2012
  • The objective of cache is to reduce I/O access of physical storage device so that user accesses their data faster. Traditionally, the most important metric to measure the performance of cache is hitratio. Thus, when the cache maintains hitratio high, it is regarded as a good cache replacement policy. However, the cache miss latency is different when the storages are heterogeneous. Though the cache hitratio is high, if the cache often misses with low performance disk, then the user experiences low performance. To address this problem we proposed eviction cost estimation based cache management. In our result, the eviction cost estimation based cache management has 10~30% throughput improvement compared with LRU cache management.

MLC-LFU : 플래시 메모리를 위한 멀티레벨 버퍼 캐시 관리 정책 (MLC-LFU : The Multi-Level Buffer Cache Management Policy for Flash Memory)

  • 옥동석;이태훈;정기동
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권1호
    • /
    • pp.14-20
    • /
    • 2009
  • 플래시 메모리는 현재 휴대용 기기 뿐 아니라 개인용 컴퓨터와 서버용 컴퓨터에서 널리 사용되고 있다 하드디스크를 위한 버퍼 캐시 교체 정책인 LRU(Least Recently Used)와 LFU(Least Frequently Used)는 플래시 메모리의 특성을 전혀 고려하지 않아 플래시 메모리에 적합하지 않다. 기존에 연구되었던 CFLRU(Clean-First LRU)와 그 변형인 CFLRU/C, CFLRU/E, DL-CPLRU/E는 플래시 메모리의 특성을 고려하였지만 hit ratio가 LRU와 LFU에 비하여 좋지 않다. 본 논문에서는 기존의 버퍼 캐시 교체 정책들을 보완하는 새로운 버퍼 캐시 교체 정책을 제안한다. 이 버퍼 캐시 교체 정책은 LFU를 기반으로 하고 플래시 메모리의 특성을 고려하였다. 그리고 이 새로운 버퍼 캐시 교체 정책을 기존 플래시 메모리 버퍼 캐시 교체 정책과 hit ratio와 flush 횟수를 비교하여 성능을 평가한다.