• Title/Summary/Keyword: 캐쉬 자원

Search Result 33, Processing Time 0.022 seconds

A Study on Disk Cache Replacement for Data Grids Computing Environment (데이타 그리드 컴퓨팅 환경에서 디스크 캐쉬 교체 연구)

  • Park Hong-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.1167-1170
    • /
    • 2006
  • 웹 인프라와 P2P 기술 개념을 기반으로 연구되고 있는 데이터 그리드 컴퓨팅 환경에서 중요한 문제 중 하나는 거대한 데이터 자료 접근에 관한 이슈이다. 요청된 자원 공간을 확보하기위해 저장되어 있는 자원을 선택하는 '캐쉬 교체 정책' 연구는 많이 연구되어 왔으나, 상항을 미리 예측하거나 스택과 같은 추가적인 자원이 필요하다. 본 논문은 기존 연구의 문제점을 해결하고 요청된 파일에 대응되는 파일의 개수가 되도록 적게 하기위해 파일 크기를 고려한 캐쉬 교체 정책을 제안하고 있다.

  • PDF

A new warp scheduling technique for improving the performance of GPUs by utilizing MSHR information (GPU 성능 향상을 위한 MSHR 정보 기반 워프 스케줄링 기법)

  • Kim, Gwang Bok;Kim, Jong Myon;Kim, Cheol Hong
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.13 no.3
    • /
    • pp.72-83
    • /
    • 2017
  • GPUs can provide high throughput with latency hiding by executing many warps in parallel. MSHR(Miss Status Holding Registers) for L1 data cache tracks cache miss requests until required data is serviced from lower level memory. In recent GPUs, excessive requests for cache resources cause underutilization problem of GPU resources due to cache resource reservation fails. In this paper, we propose a new warp scheduling technique to reduce stall cycles under MSHR resource shortage. Cache miss rates for each warp is predicted based on the observation that each warp shows similar cache miss rates for long period. The warps showing low miss rates or computation-intensive warps are given high priority to be issued when MSHR is full status. Our proposal improves GPU performance by utilizing cache resource more efficiently based on cache miss rate prediction and monitoring the MSHR entries. According to our experimental results, reservation fail cycles can be reduced by 25.7% and IPC is increased by 6.2% with the proposed scheduling technique compared to loose round robin scheduler.

Web Cache Architecture for Audio On Demand (Audio On Demand를 위한 웹캐쉬 구조)

  • 이태원;심마로;배진욱;이석호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.295-297
    • /
    • 1998
  • 인터넷 상에서 AOD나 VOD와 같이 멀티미디어 데이터를 서비tm하는 시스템에서는 같은 자원으로 더 많은 수의 동시 사용자를 지원하는 문제가 중요하다. 기존의 운영체제 캐쉬만을 이용하면 자주 요청되지 않는 곡에 대한 스캔으로 캐쉬에서 페이지 교체가 자주 일어나 버퍼링 효과가 저하되는 현상이 있다. 본 논문에서는 웹캐쉬라는 구조를 통해 과거의 요청 정보로부터 가까운 미래에 다시 요청될 곡들을 예측하고 이 곡들을 웹캐쉬에 유지하여 서비스한다. 이렇게 함으로써 디스크 액세스 횟수를 줄일 수 있고 같은 자원으로 더 많은 동시 사용자를 지원할 수 있다. 가까운 미래에 다시 요청될 곡을 예측하기 위한 방법으로 과거 요청 사이의 시간간격에 가중치를 부여하여 요청이 자주 발생하는 곡들을 판별해 낼 수 있다. 실제로 운영되고 있는 AOD 사이트의 4달간의 요청 자료를 실험 자료로 본 논문에서 주장하는 바를 시뮬레이션하여 높은 성능 향상을 얻은 것을 보였다.

L2A Cache Replacement Scheme for Label Switching Network (레이블 스위칭 네트웍 상에서 L2A 캐쉬 대체기법)

  • 김남기;황인철;윤현수
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.04a
    • /
    • pp.386-389
    • /
    • 2000
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에 많은 부담을 주고 있다. 반면 스위칭 기술은 라우팅보다 빠르게 데이터를 전송할수 있다. 그 결과 라우터 병목 현상을 해결하고자 IP 라우팅이 스위칭 기술을 접목한 레이블 스위칭 네트웍이 출현하게 되었다. 레이블 스위칭 기술중 데이터 기반 레이블 스위칭에서 매우 중요한 것은 캐쉬 테이블 관리이다. 캐쉬 테이블에는 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하고 있는데 캐쉬 테이블 크기는 라우터자원에 의해 제약을 받으므로 캐쉬 대체기법이 필요하게 된다. 따라서 효율적이 캐쉬테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 필요하다. 본 논문에서는 인터넷 트래픽 특성을 고려해 LFC 기법과 LRU 기법의 단점을 보완한 L2A 캐쉬 대체 기법을 제안한다. L2A 기법은 기본적인 FIFO , LFC, LRU 기법보다 나은 성능을 보이며 특히 캐쉬 크기가 작을 경우에도 타 기법에 비해 탁월한 성능을 유지한다.

  • PDF

MSHR-Aware Dynamic Warp Scheduler for High Performance GPUs (GPU 성능 향상을 위한 MSHR 활용률 기반 동적 워프 스케줄러)

  • Kim, Gwang Bok;Kim, Jong Myon;Kim, Cheol Hong
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.8 no.5
    • /
    • pp.111-118
    • /
    • 2019
  • Recent graphic processing units (GPUs) provide high throughput by using powerful hardware resources. However, massive memory accesses cause GPU performance degradation due to cache inefficiency. Therefore, the performance of GPU can be improved by reducing thread parallelism when cache suffers memory contention. In this paper, we propose a dynamic warp scheduler which controls thread parallelism according to degree of cache contention. Usually, the greedy then oldest (GTO) policy for issuing warp shows lower parallelism than loose round robin (LRR) policy. Therefore, the proposed warp scheduler employs the LRR warp scheduling policy when Miss Status Holding Register(MSHR) utilization is low. On the other hand, the GTO policy is employed in order to reduce thread parallelism when MSHRs utilization is high. Our proposed technique shows better performance compared with LRR and GTO policy since it selects efficient scheduling policy dynamically. According to our experimental results, our proposed technique provides IPC improvement by 12.8% and 3.5% over LRR and GTO on average, respectively.

Cache Replacement Schemes for Data Driven Label Switching (데이터 기반 레이블 스위칭을 위한 캐쉬 대체 기법)

  • 김남기;진성기;박선영;윤현수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04a
    • /
    • pp.445-447
    • /
    • 2000
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에 많은 부담을 주고 있다. 반면 스위칭 기술은 라우팅보다 빠르게 데이터를 전송할 수 있다. 그 결과 라우터 병목 현상을 해결하고자 IP 라우팅에 스위칭 기술을 접목한 레이블 스위칭 네트웍이 출현하게 되었다. 레이블 스위칭 기술 중 데이터 기반 레이블 스위칭에서 매우 중요한 것은 캐쉬 테이블 관리이다. 캐쉬 테이블에는 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하고 있는데 캐쉬테이블 크기는 라우터 자원에 의해 제약을 받으므로 캐쉬 대체 기법이 필요하게 된다. 따라서 효율적인 캐쉬 테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 필요하다. 본 논문에서는 인터넷 트래픽 특성을 고려해 기본적인 FIFO, LFC, LRU 기법을 실제 인터넷 트래픽을 사용해 성능 평가하고 새로운 가중치 우선순위 LRU 기법을 제안한다. 특히 가중치 우선순위 LRU 기법은 플로우 인앤아웃 현상이 없고 시간이 지나도 새로운 플로우를 적절히 생성해내는 일관성을 지니면서도 스위칭 비용을 줄이는 장점을 가지고 있다.

  • PDF

Core-aware Cache Replacement Policy for Reconfigurable Last Level Cache (재구성 가능한 라스트 레벨 캐쉬 구조를 위한 코어 인지 캐쉬 교체 기법)

  • Son, Dong-Oh;Choi, Hong-Jun;Kim, Jong-Myon;Kim, Cheol-Hong
    • Journal of the Korea Society of Computer and Information
    • /
    • v.18 no.11
    • /
    • pp.1-12
    • /
    • 2013
  • In multi-core processors, Last Level Cache(LLC) can reduce the speed gap between the memory and the core. For this reason, LLC has big impact on the performance of processors. LLC is composed of shared cache and private cache. In computer architecture community, most researchers have mainly focused on the management techniques for shared cache, while management techniques for private cache have not been widely researched. In conventional private LLC, memory is statically assigned to each core, resulting in serious performance degradation when the workloads are not fairly distributed. To overcome this problem, this paper proposes the replacement policy for managing private cache of LLC efficiently. As proposed core-aware cache replacement policy can reconfigure LLC dynamically, hit rate of LLC is increases drastically. Moreover, proposed policy uses 2-bit saturating counters to improve the performance. According to our simulation results, the proposed method can improve hit rates by 9.23% and reduce the access time by 12.85% compared to the conventional method.

A Detection-based Cache Consistency Algorithm using Dynamic Update in Client-Server Environments (클라이언트-서버 환경에서 동적 갱신을 이용한 탐지기반의 캐쉬 일관성 알고리즘)

  • Kim Chi-yeon;Jeong Jong-myeon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.7
    • /
    • pp.1561-1568
    • /
    • 2005
  • In client-solver environments, clients can execute applications without contact a server by storing data in its cache. To guarantee correction of applications, we need a cache consistency algorithm. Many cache consistency algorithms have been proposed, these were categorized by detection-based and avoidance-based algorithms. In this paper, we propose a new detection-based cache consistency algorithm that can reduce a burden of a client that has poor resource compare with a server Our method controls concurrency of transactions using timestamp ordering and updates a cache dynamically. In addition to we show that our method maintains a one-copy serializability.

An Avoidance-Based Cache Consistency Algorithm without Unnecessary Callback (불필요한 콜백을 제거한 회피 기반의 캐쉬 일관성 알고리즘)

  • Kim, Chi-Yeon
    • Journal of Advanced Navigation Technology
    • /
    • v.10 no.2
    • /
    • pp.120-127
    • /
    • 2006
  • Data-caching of a client is an important technology for interaction with a server where data are cached and operated at the client node. Caching reduces network latency and increases resource utilization at the client. In a Client-server environment, the absence of cache consistency algorithm, we cannot guarantee the correctness of client applications. In this paper, we propose a new asynchronous avoidance-based cache consistency algorithm. We remove the additional callback due to the lock escalation in AACC. With a comprehensive performance analysis, we show that the proposed algorithm has less message exchange than the AACC. One-copy serializability is used for proving correctness of the proposed algorithm.

  • PDF

Video Server with Tertiary Storage (Tertiary 저장장치를 사용한 비디오 서버)

  • 이종민;오재학;차호정
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10c
    • /
    • pp.44-46
    • /
    • 2000
  • 본 논문은 Tertiary 저장장치를 이용한 대용량 비디오 서버의 설계와 구현에 대해서 기술한다. 서버는 서비스와 프로세스 관리 서브시스템, 자원 관리 서브시스템, 입출력 관리 서브시스템의 세 부분으로 구성된다. 입출력 대역폭이 낮은 Tertiary 저장장치의 효율적인 사용을 위해 디스크 캐쉬 풀 모델을 사용하고, 적절한 스케줄링 정책과 캐슁 알고리즘을 이용하여 가능한 많은 사용자를 수용한다. 서버는 Windows 2000에서 시스템 서비스로 구현되었으며 디스크 캐쉬의 효과적인 사용으로 Tertiary 저장장치의 낮은 대역폭을 최대한 활용하여 접속된 사용자에게 안정된 비디오 스트리밍 서비스를 제공한다.

  • PDF