• 제목/요약/키워드: cache management

검색결과 213건 처리시간 0.025초

모바일 사물인터넷 디바이스를 위한 에너지 효율적인 캐시 및 메모리 관리 기법 (Management Technique of Energy-Efficient Cache and Memory for Mobile IoT Devices)

  • 반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권2호
    • /
    • pp.27-32
    • /
    • 2021
  • 본 논문은 차세대 사물인터넷 디바이스를 위한 에너지 효율적인 캐시 및 메모리 관리 기법을 제안한다. 제안하는 기법은 전력 소모가 적은 상변화 메모리를 사물인터넷 디바이스의 메인 메모리로 채택하고 캐시 메모리의 관리 시 쓰기 연산에 취약한 상변화 메모리의 쓰기량을 최소화하는 방향으로 설계한다. 구체적으로 살펴보면 최종단 캐시 메모리에서 캐시 블록이 삭제되어 메인 메모리로 반영될 때, 캐시 블록을 구성하는 캐시 라인별 수정 여부를 추적하여 상변화 메모리에 쓰기 발생량을 적게 발생시키는 캐시 블록을 우선적으로 교체한다. 또한, 최종단 캐시 메모리에서 캐시 블록의 참조 비트와 캐시 라인의 수정 비트를 함께 고려함으로써 메모리 시스템의 성능은 훼손하지 않으면서 에너지 소모를 줄이는 방식을 사용한다. 스펙 벤치마크를 이용한 시뮬레이션 실험을 통해 제안한 기법이 상변화 메모리에 발생하는 쓰기량을 평균 34.6% 줄이고 전력 소모를 28.9% 줄이면서 메모리의 성능 저하는 발생시키지 않음을 보인다.

Delay Reduction by Providing Location Based Services using Hybrid Cache in peer to peer Networks

  • Krishnan, C. Gopala;Rengarajan, A.;Manikandan, R.
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권6호
    • /
    • pp.2078-2094
    • /
    • 2015
  • Now a days, Efficient processing of Broadcast Queries is of critical importance with the ever-increasing deployment and use of mobile technologies. BQs have certain unique characteristics that the traditional spatial query processing in centralized databases does not address. In novel query processing technique, by maintaining high scalability and accuracy, latency is reduced considerably in answering BQs. Novel approach is based on peer-to-peer sharing, which enables us to process queries without delay at a mobile host by using query results cached in its neighboring mobile peers. We design and evaluate cooperative caching techniques to efficiently support data access in ad hoc networks. We first propose two schemes: Cache Data, which caches the data, and Cache Path, which caches the data path. After analyzing the performance of those two schemes, we propose a hybrid approach (Hybrid Cache), which can further improve the performance by taking advantage of Cache Data and Cache Path while avoiding their weaknesses. Cache replacement policies are also studied to further improve the performance. Simulation results show that the proposed schemes can significantly reduce the query delay and message complexity when compared to other caching schemes.

Adaptive Writeback-aware Cache Management Policy for Lifetime Extension of Non-volatile Memory

  • Hwang, Sang-Ho;Choi, Ju Hee;Kwak, Jong Wook
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제17권4호
    • /
    • pp.514-523
    • /
    • 2017
  • In this paper, we propose Adaptive Writeback-aware Cache management (AWC) to prolong the lifetime of non-volatile main memory systems by reducing the number of writebacks. The last-level cache in AWC is partitioned into Least Recently Used (LRU) segment and LRU using Dirty block Precedence (DP-LRU) segment. The DP-LRU segment evicts clean blocks first for giving reuse opportunity to dirty blocks. AWC can also determine the efficient size of DP-LRU segment for reducing the number of writebacks according to memory access patterns of programs. In the performance evaluation, we showed that AWC reduced the number of writebacks up to 29% and 46%, and saved the energy of a main memory system up to 23% and 49% in a single-core and multi-core, respectively. AWC also reduced the runtime by 1.5% and 3.2% on average compared to previous cache managements for non-volatile main memory systems, in a single-core and a multi-core, respectively.

클라이언트 캐슁 데이터 관리 시스템을 위한 캐쉬 일관성 알고리즘 (A Cache Consistency Algorithm for Client Caching Data Management Systems)

  • 김치연
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2006년도 춘계종합학술대회
    • /
    • pp.1043-1046
    • /
    • 2006
  • 클라이언트의 캐쉬된 데이터 관리는 클라이언트 응용의 정확성을 보장하기 위해 필요하다. 캐쉬 일관성 알고리즘은 탐지 기반과 회피 기반의 두 부류가 있다. 탐지 기반의 캐쉬 일관성 방법은 일단 비일관된 데이터의 접근을 허용하고 완료하기 전 캐쉬된 데이터의 유효성을 검사한다. 반면, 회피 기반의 알고리즘 하에서 트랜잭션은 비일관된 데이터를 접근할 기회를 전혀 갖지 않는다. 이 논문에서는 회피 기반의 버전을 이용한 새로운 캐쉬 일관성 알고리즘을 제안한다. 제안하는 방법은 서버와 클라이언트에 이중 버전을 유지하여 단일 버전만 사용한 방법에 비하여 콜백으로 인한 메시지 교환을 제거하고 트랜잭션의 철회율을 감소시킬 수 있다. 또한 갱신 전달을 위하여 무효화와 전파를 혼합하여 사용함으로써 캐쉬 실패를 최소화하였다.

  • PDF

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

Low Power Trace Cache for Embedded Processor

  • Moon Je-Gil;Jeong Ha-Young;Lee Yong-Surk
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 ICEIC The International Conference on Electronics Informations and Communications
    • /
    • pp.204-208
    • /
    • 2004
  • Embedded business will be expanded market more and more since customers seek more wearable and ubiquitous systems. Cellular telephones, PDAs, notebooks and portable multimedia devices could bring higher microprocessor revenues and more rewarding improvements in performance and functions. Increasing battery capacity is still creeping along the roadmap. Until a small practical fuel cell becomes available, microprocessor developers must come up with power-reduction methods. According to MPR 2003, the instruction and data caches of ARM920T processor consume $44\%$ of total processor power. The rest of it is split into the power consumptions of the integer core, memory management units, bus interface unit and other essential CPU circuitry. And the relationships among CPU, peripherals and caches may change in the future. The processor working on higher operating frequency will exact larger cache RAM and consume more energy. In this paper, we propose advanced low power trace cache which caches traces of the dynamic instruction stream, and reduces cache access times. And we evaluate the performance of the trace cache and estimate the power of the trace cache, which is compared with conventional cache.

  • PDF

Study on the Performance Evaluation and Analysis of Mobile Cache Memory

  • Lee, Sangmin;Kim, Jongwan;Kim, Ji Young;Oh, Dukshin
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권6호
    • /
    • pp.99-107
    • /
    • 2020
  • 본 논문에서는 모바일 기기에서 앱 실행 시 데이터 접근 속도를 향상하기 위해 사용하는 모바일 캐시의 특징을 분석하고 캐시 데이터 접근 실험을 통해 모바일 캐시의 중요성을 검증한다. 지난 10년간 모바일 기기 시장은 빠른 속도로 성장하였지만, 배터리가 제한적이고, 기기의 크기와 가격이 고려돼야 하므로 속도가 빠른 하드웨어를 사용하기 어렵다. 따라서 캐시 메모리와 같이 메모리 완충 구조를 통해 성능을 보완한다. 본 논문의 주요분석 대상은 캐시 메모리 크기, 캐시의 계층구조 그리고 교체방식과 그에 따른 모바일 성능을 확인한다. 시뮬레이션 데이터는 마이크로프로세서 시스템 연구에서 캐시 성능 확인용으로 사용한 데이터를 사용하였다. 실험결과 모바일 기기에서 캐시 메모리를 사용할 때 데이터에 대한 평균 접근 속도는 캐시 메모리가 없을 때 보다 10배의 성능향상을 보였으며 결과적으로 캐시 메모리는 같은 사양일 때 모바일 기기의 성능향상에 도움이 되는 것으로 나타났다.

플래시 변환 계층을 위한 DPW-LRU 캐시 교체 알고리즘 분석 및 개선 (Analysis and Improvement of the DPW-LRU Cache Replacement Algorithm for Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권6호
    • /
    • pp.289-297
    • /
    • 2020
  • Although flash disks are being used widely instead of hard disks, it is difficult to optimize for effective utilization of flash disks because overwrite in place is impossible and the power consumption and time required for read, write, and erase operations are all different. One of these optimization issues is a cache management strategy to minimize write operations. The cache operates at two levels: an operating system equipped with flash disks and a translation layer within the flash disk. Most studies deal with the operating system-level cache strategy. In this study, we implement and analyse the DPW-LRU algorithm which is one of the recently proposed operating system cache replacement algorithms to apply to FTL, and grope with some improvements. As a result of the experiment, the DPW-LRU algorithm maintained superiority even in the FTL environment, and showed better performance with a slight improvement.

버퍼와 디스크 캐시 사이의 중복 캐싱을 제한하는 효율적인 알고리즘 (An Efficient Algorithm for Restriction on Duplication Caching between Buffer and Disk Caches)

  • 정수목
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제10권1호
    • /
    • pp.95-105
    • /
    • 2006
  • 기계적인 동작에 기반을 둔 디스크의 동작 특성 때문에 디스크의 속도는 처리기에 비하여 매우 느리다. 반도체기술의 발전으로 처리기의 속도 향상이 비약적으로 이루어지는 반면 디스크의 속도향상은 기계적인 동작특성 때문에 속도향상이 매우 제한적으로 이루어지고 있다. 따라서 컴퓨터시스템 전체의 성능향상을 이루이기 위하여 병목현상을 일으키는 디스크 입출력시스템의 성능을 개선할 수 있는 연구가 필수적이다. 처리기와 I/O subsystem의 속도차이를 해결하기 위한 하나의 기법으로 버퍼 캐시와 디스크 캐시를 두는 기법들이 사용되고 있다. 본 논문에서는 버퍼캐시와 디스크 캐시사이에 디스크 블록 중복을 제한하고, 재 참조 될 가능성이 높은 디스크 블록을 오랫동안 캐시에 유지하게 함으로 캐시 hit ratio를 높여 디스크 접근을 줄이고 신속하게 처리기에 디스크 블록을 서비스하여 시스템의 성능을 개선하는 효율적인 버퍼 캐시 및 디스크 캐시 관리기법을 제안하였고 시뮬레이션을 통하여 제안된 기법의 성능을 평가하였다.

  • PDF

메타 검색 엔진을 위한 인기도 기반 캐쉬 관리 및 성능 평가 (A Popularity-driven Cache Management and its Performance Evaluation in Meta-search Engines)

  • 홍진선;이상호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제29권2호
    • /
    • pp.148-157
    • /
    • 2002
  • 메타 검색 엔진에서 캐쉬의 사용은 사용자의 응답시간을 향상시킬 수 있다. 본 논문에서는 메타 검색 엔진의 구조와 동작을 보이고, 메타 검색 엔진을 위한 인기도 기반의 새로운 캐쉬 대체 방법을 제안한다. 인기도는 사용자들이 검색 엔진에 요청한 단어들의 출현 빈도수를 정규화한 값으로, 캐쉬 대체를 위한 기준치로 이용된다. 본 논문에서는 인기 검색어 수집 방법, 인기도 산출방법을 기술하고, 인기도를 기반으로 하는 새로운 알고리즘을 제안한다. 또한 실제 사용자가 검색 엔진에 입력한 자료를 바탕으로, 전통적인 캐쉬 대체 기법인 LRU, LFU 알고리즘과 제안된 알고리즘을 성능 평가하였다. 본 성능 평가에서는 제안된 알고리즘이 대다수의 경우 우수한 성능을 나타내었다.