• 제목/요약/키워드: data cache

검색결과 487건 처리시간 0.025초

CPC: A File I/O Cache Management Policy for Compute-Bound Workloads

  • Bahn, Hyokyung
    • International journal of advanced smart convergence
    • /
    • 제11권2호
    • /
    • pp.1-6
    • /
    • 2022
  • With the emergence of the new era of the 4th industrial revolution, compute-bound workloads with large memory footprint like big data processing increase dramatically. Even in such compute-bound workloads, however, we observe bulky I/Os while loading big data from storage to memory. Although file I/O cache plays a role of accelerating the performance of storage I/O, we found out that the cache hit rate in such environments is not improved even though we increase the file I/O cache capacity because of some special I/O references generated by compute-bound workloads. To cope with this situation, we propose a new file I/O cache management policy that improves the cache hit rate for compute-bound workloads significantly. Trace-driven simulations by replaying file I/O reference logs of compute-bound workloads show that the proposed cache management policy improves the cache hit rate compared to the well-acknowledged CLOCK algorithm by a large margin.

Energy-Efficient Last-Level Cache Management for PCM Memory Systems

  • Bahn, Hyokyung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권1호
    • /
    • pp.188-193
    • /
    • 2022
  • The energy efficiency of memory systems is an important task in designing future computer systems as memory capacity continues to increase to accommodate the growing big data. In this article, we present an energy-efficient last-level cache management policy for future mobile systems. The proposed policy makes use of low-power PCM (phase-change memory) as the main memory medium, and reduces the amount of data written to PCM, thereby saving memory energy consumptions. To do so, the policy keeps track of the modified cache lines within each cache block, and replaces the last-level cache block that incurs the smallest PCM writing upon cache replacement requests. Also, the policy considers the access bit of cache blocks along with the cache line modifications in order not to degrade the cache hit ratio. Simulation experiments using SPEC benchmarks show that the proposed policy reduces the power consumption of PCM memory by 22.7% on average without degrading performances.

복수 캐시로 구성한 미디어 프로세서의 설계 (Design of A Media Processor Equipped with Dual Cache)

  • 문현주;전중남;김석일
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권10호
    • /
    • pp.573-581
    • /
    • 2002
  • 본 논문에서는 미디어 프로세서에서 메모리 지연으로 인한 성능 저하를 방지하기 위하여 멀티미디어 데이타 캐시와 일반 데이타 캐시로 구성된 이중 캐시 구조의 미디어 프로세서를 제안하였다. 제안된 프로세서에서는 응용 프로그램에서 서브워드 명령으로 표현되는 멀티미디어 데이타를 멀티미디어 캐시에 적재하고 나머지 데이타를 일반 데이타 캐시에 적재하도록 하였다. 또한 멀티미디어 데이타 캐시는 멀티미디어 데이타의 높은 지역성을 활용하도록 2개의 데이타 블록을 동시에 인출하는 선인출 기법을 적용하였다. MPEG과 JPEG 벤치마크에 대한 실험 결과, 제안한 프로세서의 캐시구조가 단일 캐시 구조에 비하여 성능이 우수하였다.

무선 클라이언트-서버 환경에서 이동 클라이언트의 캐시 데이타 재사용율 향상기법 (Increasing a Mobile Client's Cache Reusability in Wireless Client - Server Environments)

  • 이송이
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권5호
    • /
    • pp.282-296
    • /
    • 2006
  • 무선 클라이언트-서버 환경에서 데이타 브로드캐스팅은 효율적인 데이타 보급방식이다. 서버가 데이타를 방송하면 그 중 일부를 클라이언트가 캐시에 보관하여, 낮은 통신 대역폭과 한정된 자원을 극복하고 데이타 접근 시간 등을 절약할 수 있다. 서버는 또한 무효화보고서를 방송하여 서버 데이타와 클라이언트가 캐싱한 데이타간의 일관성을 유지할 수 있도록 한다. 기존의 캐시 일관성 문제를 해결하기 위한 대부분의 연구는, 접속 단절 시간이 너무 길어서 수신하지 못한 무효화 보고서의 수가 일정 한도(윈도우 크기)를 넘으면 단순히 캐시 전체를 삭제하는 방법을 사용한다. 이 논문은 이러한 긴 접속 단절 시간의 경우에도 이동 클라이언트의 캐시 재사용율을 높일 수 있는 기법을 제시한다. 캐시의 일관성 여부에 관계없이 무조건 전체 캐시 내용을 지우는 대신, 클라이언트는 모든 데이타를 지우는 비용과 선택적으로 지우는 비용을 추측한다. 만일 모든 데이타를 지우는 비용이 높아지는 경우에는 클라이언트는 캐시를 유지하고 검증 요청을 위해 업링크를 사용하여 유효하지 않은 데이타만을 선택적으로 지운다. 이 방법은 캐시 유지비용을 추측할 때 캐시된 데이타의 갱신 비율과 방송 빈도들을 함께 고려하므로, 효율적으로 캐시 재사용율을 높일 수 있다는 것을 모의 실험 결과를 통해 증명한다.

그리드 데이터베이스에서 질의 전달 최적화를 위한 캐쉬 관리 기법 (Cache Management Method for Query Forwarding Optimization in the Grid Database)

  • 신숭선;장용일;이순조;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제10권1호
    • /
    • pp.13-25
    • /
    • 2007
  • 그리드 데이터베이스에서는 질의 전달 최적화를 위해 캐쉬를 사용한다. 캐쉬에 빈번히 사용되는 데이터의 메타 정보를 메타 데이터베이스에서 가져와 캐싱하며, 캐싱된 정보를 통하여 질의 전달의 비용을 감소시킨다. 기존의 캐쉬 관리 기법은 질의 전달 시 복제본의 사용빈도를 고려하지 않은 데이터의 임의의 메타 정보를 캐싱하기 때문에 사용이 불균형적인 문제가 있다. 그리고, 원본 데이터가 변경되었을 경우에 기존의 메타정보를 가진 캐쉬를 통하여 질의가 타 노드로 잘못 전달되며 이러한 과정은 여러 노드에서 반복 수행되어 네트워크 비용을 증가시킨다. 따라서 기존의 캐쉬 관리 기법은 복제본의 사용비율 불균형과 타 노드로의 잘못된 질의 전달로 인한 네트워크 비용 증가 문제의 해결이 필요하다. 본 논문에서는 질의 전달 최적화를 위한 캐쉬 관리 기법을 제안한다. 제안 기법은 캐쉬 매니저라는 관리 프로세서를 사용하여 캐쉬를 관리한다. 캐쉬 매니저는 자주 사용되는 복제본이 저장된 노드의 사용빈도를 비교하여 적게 사용된 노드의 복제본 메타 정보를 캐싱함으로써 질의 전달을 최적화한다. 또한 캐쉬 매니저를 통해 타 노드로 잘못 전달되는 질의를 줄여 질의 처리 시간을 단축하고 네트워크 비용을 줄인다. 제안 기법은 성능평가를 통해 네트워크 비용과 처리시간이 감소되어 기존의 방식에 비하여 향상된 성능을 보인다.

  • PDF

분산 디렉토리 환경 하에서 효율적인 캐시 메카니즘 설계 (Design of cache mechanism in distributed directory environment)

  • 이강우;이재호;임해철
    • 한국통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.205-214
    • /
    • 1997
  • 본 논문에서는 분산 디렉토리 환경에서 질의 처리 속도를 향상 시키기 위하여 원격지의 객체에 대한 질의와 결과를 요청지의 캐시에 저장하는 캐싱 메카니즘을 설계하였으며, 설계 단계는 다음과 같이 6단계로 나누어 진행하였다. 첫째, 분산 디렉토리 시스템에 저장되는 캐시 정보를 응용 데이타 정보, 시스템 데이타 정보, 메타 데이타 정보로 분류하였다. 둘째, 분류된 캐시 정보를 기반으로 캐시 시스템 구조를 설계하였다. 셋째, 각각의 캐시 정보에 대한 저장 구조를 설계하였다. 넷째, 데이타 캐시(응용 데이타 캐시, 시스템 데이타 캐시)의 대체 알고리즘으로 거리 정보와 접근 회수를 가중치로 부여한 최소-TTL 대체 알고리즘을 제안하였다. 다섯째, 질의에 대한 탐색 공간의 범위를 좁힘으로써 질의 처리 속도를 향상시키기위해 이전 질의를 재구성한 메타 데이타 트리를 저장하는 메타 데이타 캐시의 운영 알고리즘을 개발하였다. 마지막으로, 제안된 캐시 메카니즘과 타 메카니즘과 성능 평가를 수행하여 제안된 메카니즘의 우수성을 입증하였다.

  • PDF

모바일 환경에서 타임스탬프 트리 기반 캐시 무효화 보고 기법 (A Timestamp Tree-based Cache Invalidation Report Scheme in Mobile Environments)

  • 정성원;이학주
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권3호
    • /
    • pp.217-231
    • /
    • 2007
  • 이동 컴퓨팅(Mobile Computing)환경에서 빈번한 접속 단절은 클라이언트의 캐시 일관성(Consistency)문제로 직결된다. 이러한 캐시 일관성 문제를 해결하기 위해 무효화 보고(Invalidation Report)에 관한 연구가 진행되고 있다. 그러나 기존의 무효화 보고 기법은 서버 측의 데이타의 수가 많아지거나, 갱신(Update)되는 데이타의 양이 증가하게 되면 무효화 보고 기법의 크기의 증가 및 캐시 효율성의 저하를 가지고 온다. 또한 캐시 전체의 무효화를 확인하는 보고 기법은 선택적 청취(Selective tuning)를 지원하지 못한다. 본 논문에서는 이러한 기존 방식의 문제점을 해결하며 효율성을 개선한 무효화 보고 기법으로써 TTCI(Timestamp Tree-based Cache Invalidation scheme)를 제안한다. 갱신된 데이타의 타임스탬프를 이용하여 타임스탬프 트리를 구성하고 데이타의 아이디를 갱신된 순서대로 나열하여 무효화 보고를 만든다. 이를 활용하게 되면 각 클라이언트는 자신의 단절(Disconnect)된 시점에 맞는 정보를 확인하여 캐시의 이용률을 증가 시킬 수 있다. 또한 트리 구조를 이용하여 선택적 청취를 가능하게 함으로써 클라이언트의 자원 소비를 줄일 수 있다. 이러한 본 구조의 효율성을 검증하기 위해 기존의 기법인 DRCI(Dual-Report Cache Invalidation)와 성능비교를 실시한다.

Wireless Ad-hoc Network에서 보안 협력 캐싱 기법에 관한 연구 (A Study on Secure Cooperative Caching Technique in Wireless Ad-hoc Network)

  • 양환석
    • 디지털산업정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.91-98
    • /
    • 2013
  • Node which plays the role of cache server does not exist in the wireless ad-hoc network consisting of only mobile nodes. Even if it exists, it is difficult to provide cache services due to the movement of nodes. Therefore, the cooperative cache technique is necessary in order to improve the efficiency of information access by reducing data access time and use of bandwidth in the wireless ad-hoc network. In this paper, the whole network is divided into zones which don't overlap and master node of each zone is elected. General node of each zone has ZICT and manages cache data to cooperative cache and gateway node use NZCT to manage cache information of neighbor zone. We proposed security structure which can accomplish send and receive in the only node issued id key in the elected master node in order to prepare for cache consistent attack which is vulnerability of distributed caching techniques. The performance of the proposed method in this paper could confirm the excellent performance through comparative experiments of GCC and GC techniques.

분산 디렉토리 데이터베이스 시스템에서의 메타 데이터 캐싱 기법 (Meta Data Caching Mechanism in Distributed Directory Database Systems)

  • 이강우;고진광
    • 한국정보처리학회논문지
    • /
    • 제7권6호
    • /
    • pp.1746-1752
    • /
    • 2000
  • In this paper, a cache mechanism is proposed to improve the speed of query processing in distributed director database systems. To decrease search time of requested objects and query processing time. query requests and results about objects in a remote site are stored in the cache of a local site. Cache system architecture is designed according to the classified information. Cache schema are designed for each cache information. Operational algorithms are developed for meta data cache which has meta data tree. This tree improves the speed of query processing by reducing the scope of search space. Finally, performance evaluation is performed by comparing the proposed cache mechanism with X500.

  • PDF

깊이 검사 결과에 의한 선택적 적재 방법을 가지는 픽셀 캐쉬 구조 (A Pixel Cache Architecture with Selective Loading Scheme based on Z-test)

  • 이길환;박우찬;김일산;한탁돈
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권10호
    • /
    • pp.579-585
    • /
    • 2003
  • 최근 대부분의 3차원 그래픽 렌더링 프로세서는 메모리 접근 지연 및 대역폭을 줄이기 위해 깊이 데이타와 색상 데이타를 가지고 있는 픽셀 캐쉬(pixel cache)를 사용한다. 본 논문에서는 렌더링 프로세서의 성능을 향상시키기 위한 효과적인 픽셀 캐쉬 구조를 제시한다. 제안하는 픽셀 캐쉬 시스템은 기본적으로 3차원 렌더링 프로세서에서 수행되는 깊이 검사(Z-test) 결과에 의해 선택적으로 깊이 데이터를 캐쉬에 저장하며, 색상 데이타는 별도의 버퍼에 저장한다. 시뮬레이션 결과에 의하면 16K바이트의 제안하는 캐쉬 시스템이 32K바이트의 일반적인 캐쉬보다 더 나은 성능을 보인다.