• 제목/요약/키워드: data cache

검색결과 487건 처리시간 0.025초

직접 사상 캐쉬의 캐쉬 실패율을 감소시키기 위한 성김도 정책 (Determination of a Grain Size for Reducing Cache Miss Rate of Direct-Mapped Caches)

  • 정인범;공기석;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권7호
    • /
    • pp.665-674
    • /
    • 2000
  • 높은 캐쉬 구역성을 나타내는 데이터 병렬 프로그램들에서 그레인 크기의 선정은 캐쉬 성능에 커다란 영향을 마친다. 선택된 그레인 크기가 프로세서들 사이에 균등한 부하 배분을 제공하더라도 내재하는 캐쉬 효과를 무시한 그레인 크기는 하나의 프로세서에 할당된 그레인들 사이에 주소 간섭을 발생되게 한다. 이런 주소 간섭은 캐쉬 충돌 실패를 발생하기 때문에 캐쉬 구역성에 부정적 영향을 미치게 된다. 이러한 문제점을 해결하기 위해서 본 논문에서는 직접 사상 캐쉬의 특정을 바탕으로 캐쉬 크기와 프로세서 개수들로부터 최적 그레인 크기를 유도한다. 제안된 방법은 캐쉬 공간 내에서 그레인들이 동일한 주소로 사상 되지 않게 하므로 캐쉬 충돌 실패를 감소시킨다. 모의 시험 결과는 제안된 최적 그레인 크기는 직접 사상 캐쉬상에서 캐쉬 실패를 줄이므로 시험된 데이터 병렬 프로그램들의 성능을 개선시킴을 보인다.

  • PDF

그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법 (Load Balancing Method for Query Processing Based on Cache Management in the Grid Database)

  • 신숭선;백성하;어상훈;이동욱;김경배;정원일;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제11권7호
    • /
    • pp.914-927
    • /
    • 2008
  • 그리드 컴퓨팅 환경에서 대용량 데이터의 처리와 가용성 향상, 데이터 통합을 위해 그리드 데이터베이스 관리 시스템이 사용된다. 그리드 데이터베이스 관리 시스템은 효율저인 질의처리를 위해 여러 노드로 질의를 분산하여 처리한다. 하지만 질의 처리가 임의의 노드에 집중되어 처리 성능이 감소되고, 작업 부하의 불균형이 발생한다. 본 논문에서는 그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법을 제안한다. 제안 기법에서는 여러 노드에 있는 캐쉬들을 관리하기 위해 캐쉬 관리자를 사용하며, 캐쉬 관리자는 노드를 지역별 그룹으로 연결하고 자신의 그룹 안에 있는 노드의 캐싱된 메타 정보를 관리한다. 노드는 캐쉬 관리자를 통해 질의를 전달 할 최적의 메타 정보를 캐싱한다. 노드에서 캐싱된 메타 정보를 통해 질의를 전달하여 노드의 부하를 분산한다. 제안 기법은 캐쉬 기반으로 부하가 적은 노드에서 질의를 처리하여 노드들의 부하를 분산하여 질의 처리시에 향상된 성능을 보인다.

  • PDF

압축 지역성 수준에 기반한 캐쉬 인식 압축 색인 (A Cache-Conscious Compression Index Based on the Level of Compression Locality)

  • 김원식;유재준;이진수;한욱신
    • 한국멀티미디어학회논문지
    • /
    • 제13권7호
    • /
    • pp.1023-1043
    • /
    • 2010
  • 최근 메인 메모리의 용량 증가와 가격하락으로 데이터베이스 시스템에서 사용하고 있는 색인 전체를 메인 메모리상에 상주시키는 것이 가능해지고 있다. 그러나 CPU와 메인 메모리의 연산속도와 메인 메모리의 접근 속도의 차이는 해마다 커지고 있다. 이러한 접근 속도 차이로 생기는 문제를 해결하기 위한 많은 연구가 진행 중에 있다. 이러한 연구 중 캐시 인식 트리는 데이터 압축을 통해서 캐시 미스를 줄이고, 메인 메모리의 접근 비용을 감소시킬 수 있다. 기존의 캐시 인식 트리는 데이터의 특성과 관계없이 오직 한 가지 방법의 압축방법을 사용하는 한계가 있다. 본 논문에서는 이러한 한계를 극복 할 수 있는 방법을 제안한다. 첫 번째로, 데이터의 특성을 설명 할 수 있는 압축 지역성의 개념을 제안한다. 두 번째로, 데이터의 특성에 따라 최대한 캐시 미스를 줄일 수 있도록 여러 가지 압축 방법을 지원하는 DC-Tree를 제안한다. 캐시 미스 수 측면에서 DC-Tree는 B+-Tree, Simple prefix DC-Tree, pkB-Tree에 비해 각각 1.7배, 1.5배, 1.3배의 성능 향상을 보였다. 본 논문에서 제안한 DC-Tree는 사업 데이터베이스 시스템에 적용 할 수 있을 것으로 예상되며, 실제 응용에서도 성능 향상을 보일 수 있을 것이다.

Mitigating Cache Pollution Attack in Information Centric Mobile Internet

  • Chen, Jia;Yue, Liang;Chen, Jing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권11호
    • /
    • pp.5673-5691
    • /
    • 2019
  • Information centric mobile network can significantly improve the data retrieving efficiency by caching contents at mobile edge. However, the cache pollution attack can affect the data obtaining process severely by requiring unpopular contents deliberately. To tackle the problem, we design an algorithm of mitigating cache pollution attacks in information centric mobile network. Particularly, the content popularity distribution statistic is proposed to detect abnormal behavior. Then a probabilistic caching strategy based on abnormal behavior is applied to dynamically maintain the steady-state distribution for content visiting probability and achieve the purpose of defense. The experimental results show that the proposed scheme can achieve higher request hit ratio and smaller latency for false locality content pollution attack than the CacheShield approach and the baseline approach where no mitigation approach is applied.

데이터 캐시의 선택적 프리차지를 통한 에너지 절감 (Low-power Data Cache using Selective Way Precharge)

  • 최병창;서효중
    • 정보처리학회논문지A
    • /
    • 제16A권1호
    • /
    • pp.27-34
    • /
    • 2009
  • 최근 디지털 시스템 응용의 복잡성이 증가하면서, 고성능화와 전력 소모 절감은 중요한 문제로 대두되고 있다. 전력 소모를 줄이기 위한 방법으로, 프로세서의 저 전력화 또한 미세 공정의 개발과 함께 다양하게 접근되고 있으며, 이러한 결과 모바일 시스템의 시장 확대가 이루어지고 있다. 본 논문은 이러한 프로세서에서 소모되는 전력 중 데이터 캐시의 전력 손실을 줄이기 위하여 데이터 캐시의 웨이 중 필요로 하는 부분을 예측하여 선택적으로 프리자치 하도록 하는 전력 소모 개선 방법을 제안하였으며, 접근하는 웨이에 대한 예측이 성공했을 경우에는 에너지를 절감하면서 지연이 발생하지 않는 빠른 접근이 이루어지게 하고, 실패하였을 경우에도 최소한의 시간 지연으로 해당되는 웨이의 접근이 이루어지게 하였다. 시뮬레이션을 통한 검증 결과 웨이 예측 기법만을 사용한 경우에 대비하여 평균 10.2% 의 전력을 절감할 수 있었으며, 일반적 캐시에 비하여는 평균 56.4%의 전력을 절감할 수 있었다.

데이터 재구성 기법을 이용한 고성능 FFT (High-Performance FFT Using Data Reorganization)

  • 박능수;최영호
    • 정보처리학회논문지A
    • /
    • 제12A권3호
    • /
    • pp.215-222
    • /
    • 2005
  • 대규모 신호처리 변환을 신속하게 처리하기 위해서는 캐시 메모리를 효과적으로 이용하는 것이 중요하다. 대규모 DFT 계산에서는 stride 액세스로 인한 캐시 충돌 적중 실패로 인하여 캐시 성능이 상당히 떨어지게 되고 이로 인해 전체적인 성능이 저하하게 된다. 본 논문에서는 메모리 계층 구조를 고려한 동적 데이터 재배열(Dynamic Data Layout) 방법을 개발하였다. 제시된 방법은 stride를 가지는 계산 단계(computation stage) 사이에 데이터를 동적으로 재구성을 하여 캐시 적중 실패를 줄이는 것이다. 또한 트리 구조 FFT 계산 방법에서 FFT 크기와 데이터 stride 액세스를 기초로 하여 가능한 모든 인수분해 트리 중에서 최소 실행시간을 가지는 최적의 인수 분해트리를 찾아내는 탐색 알고리즘을 개발하였다. 성능 향상을 확인하기 위하여 제시된 방법을 기존의 FFT 알고리즘에 적용하여 Pentium 4, Alpha 21264, $Athlon^{TM}$ 64, UltraSPARC III에서 실험하였다. 실험 결과에 따르면 기존의 FFT 패키지들과 비교하여 제시된 방법을 적용한 FFT가 최대 3.37배의 성능 향상을 얻을 수 있었다.

모바일 웹 서비스를 위한 요소분할 캐싱 기법 (Separate Factor Caching Scheme for Mobile Web Service)

  • 심근정;강의선;김종근;고희애;임영환
    • 정보처리학회논문지D
    • /
    • 제14D권4호
    • /
    • pp.447-458
    • /
    • 2007
  • 본 논문은 기존의 Mobile Gate System에서 모바일 웹 서비스를 위해 사용하던 Contents Cache 의 성능을 향상시킴으로 보다 더 빠르게 모바일 웹 서비스를 하는 데 그 목적을 두고 있다. Contents Generator에 의해 변환된 마크-업 페이지에는 두 요소가 존재함을 알 수 있었다. 하나의 요소는 단지 요청된 DIDL 페이지와 마크-업 종류에만 의존적인 것이었고, 다른 하나의 요소는 요청된 DIDL 페이지, 마크-업 종류, 서비스를 요청한 모바일 장치의 Display 크기, 지원되는 이미지 형식, 지원되는 이미지의 색 심도 수에 각각 의존적이었다. 기존의 Contents Cache는 이렇게 두 요소를 함께 가진 마크-업 페이지 전체를 모두 저장했다. 이는 다른 요소들이 모두 같다 하더라도 하나의 요소가 달라지면 그 요소 때문에 재사용 가능한 요소들까지 Cache 메모리 영역에 중복 저장함으로써 저장 공간을 효율적으로 사용하지 못하게 하는 문제를 발생시켰다. 이 때문에 동일한 Cache 메모리 크기 하에 더 많은 변환된 마크-업 페이지를 저장할 수 있었음에도 그렇게 하지 못했다. 따라서 본 논문에서는 Contents Generator에 의해 변환된 마크-업 페이지를 두 요소로 나누고 각각을 분류하여 저장하였다. 또한 Cache 내의 데이터와 신규 데이터간의 대체 요구에 응하기 위해 LFU, LRU 두 대체 알고리즘을 적용하였다. 이를 통해 동일한 Cache 저장 공간 내에 더 많은 변환된 마크-업 페이지를 저장하게 함으로 더 빠른 속도의 Cache 성능을 구현할 수 있는 방법을 제안하였다.

Design and evaluation of a fuzzy cooperative caching scheme for MANETs

  • Bae, Ihn-Han
    • Journal of the Korean Data and Information Science Society
    • /
    • 제21권3호
    • /
    • pp.605-619
    • /
    • 2010
  • Caching of frequently accessed data in multi-hop ad hoc environment is a technique that can improve data access performance and availability. Cooperative caching, which allows sharing and coordination of cached data among several clients, can further en-hance the potential of caching techniques. In this paper, we propose a fuzzy cooperative caching scheme in mobile ad hoc networks. The cache management of the proposed caching scheme not only uses adaptively CacheData or CachePath based on data sim-ilarity and data utility, but also uses the replacement manager based on data pro t. Also, the proposed caching scheme uses a prefetch manager. When the TTL of the cached data expires, the prefetch manager evaluates the popularity index of the data. If the popularity index is larger than a threshold, the data is prefetched. Otherwise, its space is released. The performance of the proposed scheme is evaluated analytically and is compared to that of other cooperative caching schemes.

이동 데이터베이스 시스템에서 효율적인 캐쉬 일관성 유지 기법 (Efficient Schemes for Cache Consistency Maintenance in a Mobile Database System)

  • 임상민;강현철
    • 정보처리학회논문지D
    • /
    • 제8D권3호
    • /
    • pp.221-232
    • /
    • 2001
  • 이동 통신 기술의 급속한 발전으로, 이동 컴퓨팅 환경에서 데이타 서비스에 대한 수요가 증가하고있다. 이동 틀라이언트 내에 캐쉬가 존재하면, 대역폭의 절약 및 질의에 대한 빠른 응답을 제공할 수 있지만, 캐쉬일관성을 유지해야하는 부담이 생긴다. 한 셀 내에 존재하는 이동 클라이언트들의 캐쉬 일관성 유지를 위해서 서버가 캐쉬 무효화 보고를 일정 시간마다 주기적으로 방송하는 방법은 효율적일 수 있다. 그런데 아동 클라이언트가 오랜 시간 동안의 접속 단절로 인해 무효화 보고만으로 자신의 캐쉬유효성 여부를 판단하지 못할 경우에는, 서버에게 캐쉬유효성 여부레 대한 확인을 요청함으로써 캐쉬일관성을 유지할 수 있다. 이때, 할당 가능한 채널의 수와 이동클라이언트 수의 관계에 따라서 서로 다른 기법이 각각의 경우에 더 효율적일 수 있다. 본 논문에서는 (1) 할당 가능한 채널의 수가 이동 클라이언트 수보다 많거나 비슷한 경우와 (2) 채널의 수가 이동 클라이언트의 수보다 훨씬 적을 경우 각각에 대하여 효율적인 새로운 캐쉬 일관성 유지 기법을 제안하고 성능을 평가한다.

  • PDF

Warp-Based Load/Store Reordering to Improve GPU Time Predictability

  • Huangfu, Yijie;Zhang, Wei
    • Journal of Computing Science and Engineering
    • /
    • 제11권2호
    • /
    • pp.58-68
    • /
    • 2017
  • While graphics processing units (GPUs) can be used to improve the performance of real-time embedded applications that require high throughput, it is challenging to estimate the worst-case execution time (WCET) of GPU programs, because modern GPUs are designed for improving the average-case performance rather than time predictability. In this paper, a reordering framework is proposed to regulate the access to the GPU data cache, which helps to improve the accuracy of the estimation of GPU L1 data cache miss rate with low performance overhead. Also, with the improved cache miss rate estimation, tighter WCET estimations can be achieved for GPU programs.