• 제목/요약/키워드: Cache System

검색결과 457건 처리시간 0.021초

A Novel Method of Improving Cache Hit-rate in Hadoop MapReduce using SSD Cache

  • Kim, Jong-Chan;An, Jae-Hoon;Kim, Young-Hwan;Jeon, Ki-Man
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권8호
    • /
    • pp.1-6
    • /
    • 2015
  • The MapReduce Program of Hadoop Distributed File System operates on any unspecified nodes due to distributed-parallel process and block replicate for data stability. Since it is difficult to guarantee the cache locality when a Solid State Drive is used as a cache in hadoop, cache hit-rate is decreased. In this paper, we suggest a method to improve cache hit rate by pre-loading the input data of the MapReduce onto the SSD cache. To perform this method, we estimated the blocks that are used on each node by using capacity scheduler and block metadata. Eventually we could increase the performance of SSD cache by loading the blocks onto SSD cache before the Map Task run.

Energy-Efficient Last-Level Cache Management for PCM Memory Systems

  • Bahn, Hyokyung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권1호
    • /
    • pp.188-193
    • /
    • 2022
  • The energy efficiency of memory systems is an important task in designing future computer systems as memory capacity continues to increase to accommodate the growing big data. In this article, we present an energy-efficient last-level cache management policy for future mobile systems. The proposed policy makes use of low-power PCM (phase-change memory) as the main memory medium, and reduces the amount of data written to PCM, thereby saving memory energy consumptions. To do so, the policy keeps track of the modified cache lines within each cache block, and replaces the last-level cache block that incurs the smallest PCM writing upon cache replacement requests. Also, the policy considers the access bit of cache blocks along with the cache line modifications in order not to degrade the cache hit ratio. Simulation experiments using SPEC benchmarks show that the proposed policy reduces the power consumption of PCM memory by 22.7% on average without degrading performances.

웹 캐시 서버를 위한 저수준 파일시스템 설계 및 구현 (Design and Implementation of Raw File System for Web Cache Server)

  • 김성락;구용완
    • 인터넷정보학회논문지
    • /
    • 제4권2호
    • /
    • pp.11-19
    • /
    • 2003
  • 범용으로 설계된 EXT2나 UFS에 캐시 데이터를 저장하는 기법은 파일 구조가 범용이기 때문에 엘 캐시에서 요구하는 속도를 충족시키지 못한다. 된 연구에서는 웹 파일에 대한 특성을 적용하여 파일 시스템을 최적화함으로써 좀 더 나은 솔루션이 존재한다는 사실을 제시하였다. 제안한 저수준 캐시파일 시스템(RawCFS:Raw Cache File System)은 캐시된 객체의 크기와 액세스 권한 변경이 불가능하고, 오리지널 서버에 최신본이 존재한다는 사실에 기인하였다. 본 파일 시스템은 성능 평가에서 객체 단위로 개변 과일에 저장하는 기법에 비해 40% 가량 빠른 것으로 확인되었으며 캐시 서버뿐만 아니라 이미지나 HTML 페이지 같은 객체론 클라이언트에게 빠른 서비스를 위한 쇼핑몰이나 인터넷 방송국 같은 대용량 엘 서버 설계시에도 활용될 수 있다.

  • PDF

지역 버퍼와 주소 압축을 통한 저전력 캐시 설계 (Low-Power Cache Design by using Locality Buffer and Address Compression)

  • 곽종욱
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권9호
    • /
    • pp.11-19
    • /
    • 2013
  • 프로세서와 메모리 시스템 사이의 속도 차이를 완화하기 위하여 오늘날의 컴퓨터 시스템은 대부분 캐시 시스템을 사용하고 있다. 하지만 소비 전력 측면에서 캐시 메모리는 전체 시스템 측면에서 큰 비중을 차지한다. 본 논문에서는 캐시 시스템의 전력을 줄이는 방안 가운데 하나로 지역 버퍼와 주소 압축을 통한 저전력 캐시 설계 기법을 제안한다. 주소 압축을 위해 사용되는 부분태그 캐시는 전력 소모량을 최소화하기 위해서 전체 태그를 쓰기보다는 태그의 작은 부분을 사용함으로써 소비 전력을 줄이도록 하는 기법이다. 본 논문에서는 기존의 여러 주소 압축 캐시 연구에서의 문제점들을 분석하여 그것을 보완할 수 있는 새로운 기법을 제안한다. 제안된 기법은 지역성이 높은 내장형 응용프로그램의 특징을 활용한 것으로, 지역 버퍼와 지역 실패 버퍼를 활용한 새로운 형태의 캐시 주소 압축 기법이다. 모의실험 결과, 제안된 기법은 전체적인 성능의 감소 없이 평균 18%의 에너지 감소를 보였다.

NUMA 시스템에서 소유권에 근거한 원격 캐시 교체 정책 (Keeping-ownership Cache Replacement Policies for Remote Access Caches of NUMA System)

  • 신숭현;곽종욱;장성태;전주식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권8호
    • /
    • pp.473-486
    • /
    • 2004
  • NUMA 시스템은 원격의 메모리에 반복적으로 접근하는 오버헤드를 피하기 위해 지역 노드내에 원격 캐시를 둔다. 이러한 원격 캐시를 사용하여 원격 메모리로의 접근 지연 시간을 감소시키고 네트워크 상의 트래픽 양을 줄이지 못한다면 다중 프로세서 시스템의 성능 저하는 명백하다. 성능 상의 여러 기준 중에서 메모리 시스템과 관련해서는 캐시 교체 정책에 관한 연구가 계속되었고, 그 중 다중 프로세서 시스템에서의 캐시 교체 정책에 관한 연구도 이어졌다. 본 논문에서는 캐시의 공유 상태에 기반을 둔 교체 정책을 제안한다. 소유권이 없는 캐시 라인을 먼저 교체하고, 이를 통해 소유권이 옮겨지는 오버헤드를 피하여 메모리 지연 시간을 줄인다. 또한 소유권이 없는 캐시 라인에 지나친 피해가 얼도록, “MRU를 사용한 소유권 유지 교체 정책(KOM)”과 “참조 비트를 사용한 소유권 유지 교체 정책(KORB)”를 제안하고, 이를 LRU, Pseudo LRU(PLRU)와 비교한다. KOM과 KORB는 PLRU에 비하여 수행 시간에서 25%, 13%씩 각각 향상을 보였다. 특히 KOM은 하드웨어 복잡도가 현저히 낮음에도 불구하고 LRU에 가까운 성능을 나타냈다.

가상화 환경에서 스토리지 성능 향상을 위한 호스트 캐시 마이그레이션 엔진 설계 및 구현 (Design and Implementation of Host-side Cache Migration Engine for High Performance Storage in A Virtualization Environment)

  • 박준영;박현찬;유혁
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제22권6호
    • /
    • pp.278-283
    • /
    • 2016
  • 최근 폭발적으로 증가하는 사용자 데이터가 클라우드에 저장됨에 따라 고품질의 일관된 성능으로 클라우드 스토리지 서비스를 제공하는 것이 더욱 더 중요해지고 있다. 하지만 클라우드 관리를 위한 가상머신 이주(migration)로 인해 스토리지 서비스의 품질이 저하될 수 있다. 특히 플래시 캐시를 사용하는 환경에서는 가상머신 이주가 실행 될 경우 기존 서버에 예열된 캐시를 잃고 새로운 머신에서 콜드 스타트하는 문제가 발생한다. 본 논문은 위의 문제를 해결하기 위해 가상머신 이주로 인한 캐시의 콜드 스타트 문제를 시연 및 분석하고 플래시 캐시의 효율적인 핫 스타트를 수행하는 캐시미어 기법을 제안한다.

HiPi 버스를 사용한 멀티프로세서 시스템에서 캐쉬 코히어런스 프로토콜의 성능 평가에 관한 연구 (A Study on the Performance Analysis of Cache Coherence Protocols in a Multiprocessor System Using HiPi Bus)

  • 김영천;강인곤;황승욱;최진규
    • 한국통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.57-68
    • /
    • 1993
  • 본 논문에서는 pended 프로토콜을 가지는 HiPi버스와 다중 캐쉬 메모리를 사용하는 멀티프로세서 시스템을 기술하고, 캐쉬 코히어런스 프로토콜에 따라 프로세서의 효율 측면에서 시스템의 성능을 평가하였다. HiPi 버스는 ETRI에서 개발된 행정전산망용 주전산기인 TICOMII의 공유 버스로 사용되기 위하여 개발되었다. HiPi버스는 고속의 데이타 전송 능력을 가지고 있으나, 캐쉬 간의 데이타 전송을 허용하지 못하는 단점을 가지고 있다. 캐쉬 간의 데이타 전송이 전체 시스템의 성능에 미치는 영향을 측정하고, HiPi버스에 적합한 캐쉬 코히어런스 프로토콜을 선택하기 위하여 두가지 시뮬레이션을 실시하였다. 첫째, HiPi 버스를 사용하는 멀티프로세서 시스템에 다양한 캐쉬 코히어런스 프로토콜을 적용하고 시뮬레이션을 통하여 프로세서 효율에 따른 성능 분석을 실시하였다. 각각으니 프로토콜은 상태 천이도록 나타내었으며, Markov정적 상태도를 이용하여 각 상태의 확률 갑을 구하였다. 각 상태의 확률은 시뮬레이션에서 입력 값으로 사용되었고, 모델링과 시뮬레이션은 SLAMII심볼과 언어를 사용하였다. 둘째, 캐쉬 간의 데이타 전송을 갖는 HiPi버스를 제안하였고, 제안된 HiPi버스를 사용하는 멀티프로세서 시스템에 다양한 캐쉬 코히어런스 프로토콜을 적용하고 시뮬레이션을 통하여 프로세서 효율에 따른 성능 분석을 실시하였다. 고려된 캐쉬 코히어런스 프로토콜은 Write-through, Write-once, Berkely, Synapse. Illinois, Firefly, Dragon이다.

  • PDF

Low Power Scheme Using Bypassing Technique for Hybrid Cache Architecture

  • Choi, Juhee
    • 반도체디스플레이기술학회지
    • /
    • 제20권4호
    • /
    • pp.10-15
    • /
    • 2021
  • Cache bypassing schemes have been studied to remove unnecessary updating the data in cache blocks. Among them, a statistics-based cache bypassing method for asymmetric-access caches is one of the most efficient approach for non-voliatile memories and shows the lowest cache access latency. However, it is proposed under the condition of the normal cache system, so further study is required for the hybrid cache architecture. This paper proposes a novel cache bypassing scheme, called hybrid bypassing block selector. In the proposal, the new model is established considering the SRAM region and the non-volatile memory region separately. Based on the model, hybrid bypassing decision block is implemented. Experiments show that the hybrid bypassing decision block saves overall energy consumption by 21.5%.

공격적인 선인출 및 직접 사상 필터링을 이용한 L1 캐시 선인출 기법 (An L1 Cache Prefetching Scheme using Excessively Aggressive Prefetchering and a Small Direct-mapped Filtering Cache)

  • 전영숙
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권11호
    • /
    • pp.836-852
    • /
    • 2006
  • 본 논문에서는 공격적인 선인출 및 직접 사상 필터링을 이용한 L1 캐시 선인출 기법을 제안한다. 이를 위하여 캐시 선인출의 역효과에 대한 정량적 분석 방법을 제안하였고 이를 이용하여 다양한 벤치마크에서의 공격적 선인출 효과를 분석하였다. 분석 결과를 바탕으로 최적 선인출 필터 구조 및 알고리즘을 도출하였고 독자적으로 개발된 타이밍 기반 캐시 시뮬레이터를 사용하여 전체 시스템 성능을 추출하였다. 실험 결과는 제안된 L1 선인출 기법을 사용하여 다양한 벤치마크에 대하여 시스템 성능을 평균적으로 18% 향상시킬 수 있음을 보인다.

깊이 검사 결과에 의한 선택적 적재 방법을 가지는 픽셀 캐쉬 구조 (A Pixel Cache Architecture with Selective Loading Scheme based on Z-test)

  • 이길환;박우찬;김일산;한탁돈
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권10호
    • /
    • pp.579-585
    • /
    • 2003
  • 최근 대부분의 3차원 그래픽 렌더링 프로세서는 메모리 접근 지연 및 대역폭을 줄이기 위해 깊이 데이타와 색상 데이타를 가지고 있는 픽셀 캐쉬(pixel cache)를 사용한다. 본 논문에서는 렌더링 프로세서의 성능을 향상시키기 위한 효과적인 픽셀 캐쉬 구조를 제시한다. 제안하는 픽셀 캐쉬 시스템은 기본적으로 3차원 렌더링 프로세서에서 수행되는 깊이 검사(Z-test) 결과에 의해 선택적으로 깊이 데이터를 캐쉬에 저장하며, 색상 데이타는 별도의 버퍼에 저장한다. 시뮬레이션 결과에 의하면 16K바이트의 제안하는 캐쉬 시스템이 32K바이트의 일반적인 캐쉬보다 더 나은 성능을 보인다.