• 제목/요약/키워드: 캐쉬 메모리

검색결과 176건 처리시간 0.03초

선택적 희생 캐쉬를 이용한 저전력 고성능 시스템 설계 방안 (An Energy-Delay Efficient System with Adaptive Victim Caches)

  • 김철홍;심성훈;전주식;장성태
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권11_12호
    • /
    • pp.663-674
    • /
    • 2005
  • 계층적 메모리 구조를 사용하는 시스템에서 상위 캐쉬의 적중률은 전체 시스템의 성능을 결정하는 중요한 요소 중 하나이다. 시스템 설계 시 전력 효율성이 중요한 고려사항이 되고 있는 최근에는 전력 소모량이 많은 하위 캐쉬로의 접근을 줄이기 위해 상위 캐쉬의 적중률을 높이는 방안이 더욱 부각되고 있다. 본 논문에서는 선택적 희생 캐쉬를 이용하여 상위 캐쉬의 적중률을 높임으로써 저전력 고성능 시스템을 설계하는 방안을 제안하고자 한다. 희생 캐쉬는 직접 사상 1차 캐쉬에서의 충돌 미스로 인한 메모리 시스템의 성능 저하를 줄이기 위해 추가되는 모듈이다 제안하는 구조는 희생 캐쉬로의 데이타 할당 정책을 변형하여 재참조 가능성이 높은 데이타를 보다 오랜 시간동안 상위 캐쉬 내에 유지시킴으로써 상위 캐쉬의 적중률을 높이고, 이를 통해 접근 시간이 길고 전력 소모량이 많은 하위 캐쉬로의 접근 횟수를 줄이고자 한다. 참조 기반 희생 캐쉬는 1차 캐쉬에서 교체되는 데이타 중에서 프로세서에 의해 많이 참조되었던 데이타만을 골라서 할당한다. 교체 기반 희생 캐쉬는 1차 캐쉬에서 교체되는 데이타 중에서 충돌 미스가 자주 발생하는 위치에 할당되었던 데이타만을 골라서 할당한다. Wattch를 사용한 실험 결과 제안하는 구조는 기존의 희생 캐쉬 시스템보다 좋은 성능을 보일뿐 아니라, 전력 효율성도 높음을 알 수 있다.

디렉토리를 이용한 캐쉬 일관성 유지 기법에서 무효화 힌트를 이용한 읽기 접근 시간 감소 (Reduction of Read Access Latency by Invalid Hint in Directory-Based Cache Coherence Scheme)

  • 오승택;이윤석;맹승렬;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권4호
    • /
    • pp.408-415
    • /
    • 2000
  • 대규모 분산 공유메모리 다중처리기는 공유메모리 접근 지연시간이 크다는 약점을 지니고 있다. 이러한 다중처리기에서 모든 메모리 요청이 홈노드를 통해 이루어지는 디렉토리 기반의 캐쉬 일관성 유지 기법의 사용은 메모리 접근 지연시간을 더욱 크게 하는 요인으로 작용한다. 뿐만 아니라 메모리 접근 지연시간은 시스템의 규모가 커질수록 전체 성능에 중요한 요소로 작용하므로, 대규모 시스템에서 이를 줄이기 위해서 많은 연구들이 있었다. 본 논문에서는 메모리 읽기 지연시간을 줄이는 새로운 캐쉬 일관성 유지 기법을 제안한다. 제안된 기법은 무효화힌트를 이용하여 구현되었다. 무효화힌트는 어떤 노드가 전에 캐쉬블록을 무효화 시켰는가에 관한 정보이며, 메모리블록이 필요한 노드는 이 정보를 이용하여 홈노드의 도움 없이 직접 메모리 요청을 할 수 있다. 제안된 프로토콜의 성능을 측정하기 위하여 모의실험을 하였다. 모의실험 결과는 제안된 프로토콜에서 읽기 지연시간이 감소하는 것을 나타낸다.

  • PDF

소프트 에러에 대한 캐쉬 메모리의 태그 비트 신뢰성 향상 기법 (Reliability Improvement of the Tag Bits of the Cache Memory against the Soft Errors)

  • 김영웅
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권1호
    • /
    • pp.15-21
    • /
    • 2014
  • 반도체 공정 기술의 발달로 인하여 프로세서 내에 적재할 수 있는 캐쉬 메모리의 용량은 증가하였지만 높은 트랜지스터 집적율은 프로세서를 소프트 에러에 대해 더 취약하게 만들었으며, 이는 설계 고려사항 중 신뢰성의 비중이 점점 더 높아짐을 의미한다. 이러한 취약성을 극복하기 위하여 캐쉬 메모리의 데이터에 대한 다양한 신뢰성 기법이 제안되었으나, 태그 비트에 대한 연구는 제한적이다. 본 연구는 캐쉬 메모리 중 태그 비트에 대해 Temporal Locality 특성을 만족하지 않는 write-back 동작에 대한 보호율을 분석하고, 이를 극복할 수 있는 방안을 제안한다. 실험을 통해 제안된 기법으로 기존의 write-back에 대한 보호율을 59.0%에서 76.8%까지 성능 저하 없이 증가시킬 수 있다.

계층적 메모리 구성에 따른 GPU 성능 분석 (Analysis on the GPU Performance according to Hierarchical Memory Organization)

  • 최홍준;김종면;김철홍
    • 한국콘텐츠학회논문지
    • /
    • 제14권3호
    • /
    • pp.22-32
    • /
    • 2014
  • 병렬 연산에 최적화된 하드웨어를 가진 GPU를 그래픽스 작업 이외에 범용 작업에 활용하고자, 최근에 GPGPU 기술이 큰 관심을 받고 있다. GPU와 같은 대용량 병렬처리 장치에서는 메모리 시스템이 성능에 큰 영향을 미치게 된다. GPU에서는 메모리 시스템의 효율성을 향상시키기 위하여, 메모리 대역폭 사용률을 감소시켜주는 계층적 메모리 구조와 메모리를 요청하는 트랜잭션을 줄여주는 메모리 주소 접합과 메모리 요청 합병 등의 기술들을 사용한다. 본 논문에서는 메모리 시스템 효율성 향상을 위해 활용되는 기법들이 GPU 성능에 미치는 영향을 정량적으로 평가하고 분석하기 위해, 다양한 메모리 구조에 대한 실험을 수행한다. 실험 결과에 따르면, 캐쉬를 사용하지 않는 경우에 비해 8KB, 16KB, 32KB, 64KB의 L1 캐쉬를 추가하면 평균적으로 15.5%, 21.5%, 25.5%, 30.9%의 성능이 각각 향상된다. 하지만, 일부 벤치마크 프로그램에서는 데이터 일관성을 유지하기 위하여 메모리 트랜잭션이 증가함에 따라 오히려 성능이 감소하는 결과를 보이기도 한다. 그리고 메모리 요청에 대한 미스가 많이 발생하는 경우에는 캐쉬 레벨이 증가함에 따라 평균 메모리 접근 지연 시간이 증가하기도 한다.

SCI 기반 PC 클러스터링을 위한 CC-NUMA 프로토타입 카드의 설계와 성능 (Design and Performance of a CC-NUMA Prototype Card for SCI-Based PC Clustering)

  • 오수철;정상화
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권1호
    • /
    • pp.35-41
    • /
    • 2002
  • 고성능 PC 클러스터 시스템을 구축하기 위해서는 네트워크 접근시간을 최소화하는 것이 중 요하다. SCI 기반 PC 클러스터 시스템에서는 각 노드에 네트워크 캐쉬를 유지함으로써 네트워크 접근 시 간을 줄이는 것이 가능하다. 본 논문에서는 SCI 기반 PC 클러스터 시스템을 위해서 네트워크 캐쉬를 활용하는 CC-NUMA 카드를 제안한다. CC-NUMA 카드는 각 노드의 PCI 슬롯(slot)에 plug-in 되는 형태이며 공유메모리 네트워크 캐쉬 네트워크 제어 모듈을 포함한다. 네트워크 캐쉬는 클러스터 노드의 PCI 버스상에서 존재하는 공유메모리를 캐쉬하여 공유메모리와 네트워크 캐쉬 사이의 일관성은 IEEC SCI 표준 에 의해 유지된다. 본 연구에서는 SCI 기반 PC 클러스터 시스템의 성능을 측정하기 위하여 CC-NUMA 프로토타입 카드를 개발하였으며, 이를 기반으로 하여 클러스터 시스템을 구축하였다. 실험결과. CC- NUMA 카드를 장착한 클러스터 시스템이 네트워크 캐쉬를 활용하지 않는 NUMA 기반 클러스터 시스템 에 비해서 우수한 성능을 보임을 알 수 있었다.

멀티미디어 내장형 시스템을 위한 저전력 데이터 캐쉬 설계 (An Area Efficient Low Power Data Cache for Multimedia Embedded Systems)

  • 김정길;김신덕
    • 정보처리학회논문지A
    • /
    • 제13A권2호
    • /
    • pp.101-110
    • /
    • 2006
  • 대용량의 데이터 처리가 요구되는 내장형 시스템에서 메모리의 비중은 아주 중요하며, 특히 제한적인 메모리를 최적으로 이용하기 위하여 응용의 특성을 활용하는 온칩(on-chip) 메모리 구조의 설계가 필요하다. 본 논문에서는 멀티미디어 응용을 위한 내장형 시스템에서 저전력을 위하여 작은 용량으로 설계되었으나 우수한 성능을 보이는 데이터 캐쉬(data cache)가 제안된다. 제안되는 캐쉬는 컴파일러의 도움 없이 구조적인 특징과 간단한 동작 메커니즘만을 이용하여 해당 응용의 데이터 지역성(data locality)을 효과적으로 반영할 수 있도록 작은 블록 크기를 지원하는 4KB 용량의 직접사상 캐쉬(direct-mapped cache)와 큰 블록을 지원하는 1KB 용량의 완전연관 버퍼(fully-associative buffer)로 구성되어 진다. 전체 5KB의 작은 캐쉬 용량으로 인한 성능 저하를 보완하기 위하여 멀티미디어 응용의 알고리즘 특성을 기반으로 응용 적응적인 다중 블록 선인출(adaptive multi-block prefetching) 기법과 효과적 블록 필터링(effective block filtering) 기법이 제안되었다 시뮬레이션 결과에 따르면 제안된 5KB 캐쉬는 기존의 16KB 4-way 집합연관 캐쉬와 동등한 성능을 보이면서 소비 전력 면에서는 40% 이상의 감소를 보이고 있다.

주문형 메모리 시스템 설계를 위한 환경 개발 (Development of Research Environment for Application Specific Memory System)

  • 이재혁;박기호;이길환;한탁돈
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1999년도 가을 학술발표논문집 Vol.26 No.2 (3)
    • /
    • pp.60-62
    • /
    • 1999
  • 미세 회로 기술의 발전은 단일 칩에 집적될 수 있는 트랜지스터의 수를 지속적으로 증가시키고 있으며 이에 따라 설계의 복잡도 역시 크게 증가하고 있다. 이러한 설계 복잡도의 증가는 여러 기능 블록이 IP(Intellectual Property) 형태로 독립적으로 설계되어서 이들의 조합으로 새로운 시스템을 구성하는 시스템 온 칩(System On a Chi)과 같은 새로운 시스템 설계 방법에 대한 요구를 증가시키고 있다.[1]. 이런 시스템 온 칩에 사용될 메모리 시스템 역시 기존의 표준화된 메인 메모리 이 외에 각각의 다양한 응용에 적합한 맞춤형(Application Specific Standard Products) 내장 메모리 시스템 구조에 대한 필요성이 대두되고 있다. 이와 같이 특정 응용에 적합한 메모리 시스템을 설계할 수 있는 기본 정보를 제공해 주는 것이 필수적이다. 또한 이러한 정보에 따라 설계된 메모리 시스템에 대한 성능 평가할 환경도 함께 요구된다. 본 연구에서는 다양한 응용의 메모리 참조 특성을 분석하고 특성화하기 위하여 캐쉬 파라메터의 변화에 따른 캐쉬 접근 실패의 분포, 메모리 접근 영역의 분포, 참조 사이에 있는 유일한 참조의 수의 분포 등 다양한 정보를 제공해 주는 환경을 구축하였다.

  • PDF

캐쉬 미스와 분기예측 실패를 고려한 명령어 페치 모델의 성능분석 (Performance Analyses of Instruction Fetch Models Considering Cache Miss and Branch Misprediction)

  • 김선모;정진하;최상방
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제28권12호
    • /
    • pp.685-697
    • /
    • 2001
  • 캐쉬 메모리는 명령어와 데이터의 참조시간을 줄이기 위하여 프로세서에 의해 참조되어질 가능성이 높은 주 메모리의 내용을 일시적으로 저장하는 용량이 작고 빠른 메모리이다. 본 논문에서는 슈퍼스칼라 프로세서에 적용될 수 있는 네 가지 명령어 캐쉬 구조에 대하여 캐쉬 미스와 분기예측 실패를 고려한 해석적 모델을 제안하고 성능을 분석하였다. 슈퍼스칼라 구조의 다양한 파라미터들을 정의하여 명령어 페치를 모델링하였으며, 해석적 모델의 타당성을 검증하기 위하여 시뮬레이션을 수행하여 얻은 결과와 비교하였다. 명령어 페치율에 있어서는 분기예측 실패로 인한 영향보다는 캐쉬 미스로 인한 성능저하가 더욱 큰 것으로 나타났다. 본 연구를 통하여 얻은 해석적 모델을 사용하면 시뮬레이션에서는 드러나지 않는 성능제약의 원인에 대한 명확한 규명이 가능하며, 캐쉬 성능에 있어서 캐쉬 미스와 분기예측 실패간의 관계에 대한 정확한 분석이 가능하다.

  • PDF

스트라이드 배열 병합 방법의 데이터 선인출 효과 (Data Prefetching Effect of the Stride Merging-Arrays Method)

  • 정인범;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권11호
    • /
    • pp.1429-1436
    • /
    • 1999
  • 데이타들에 대한 선인출 효과를 얻기 위하여 캐쉬 메모리의 캐쉬 블록은 다중 워드로 구성된다. 그러나 선인출된 데이타들이 사용되지 않을 경우 캐쉬 메모리가 낭비되고 따라서 캐쉬 실패율이 증가한다. 데이타 배열 병합 방법은 캐쉬 실패 원인의 하나인 캐쉬 충돌 실패를 감소시키기 위하여 사용되고 있다. 그러나 기존의 배열 병합 방법은 유용하지 못한 데이타들을 캐쉬 블록에 선인출하는 현상을 보인다. 본 논문에서는 이러한 현상을 개선한 스트라이드 배열 병합을 제안한다. 모의시험에서 캐쉬 블록이 다중 워드로 구성된 경우 스트라이드 배열 병합은 캐쉬 충돌 실패를 감소시킬 뿐 만 아니라 유용한 데이타 선인출을 증가 시키므로 캐쉬 성능을 향상시킴을 보여준다. 또한 이렇게 향상된 캐쉬 성능은 프로세서 증가에 따른 확장성 있는 프로그램 성능을 나타낸다.Abstract The cache memory is composed of cache lines with multiple words to achieve the effect of data prefetching. However, if the prefetched data are not used, the spaces of the cache memory are wasted and thus the cache miss rate increases. The data merging-arrays method is used for the sake of the reduction of the cache conflict misses. However, the existing merging-arrays method results in the useless data prefetching. In this paper, a stride merging-arrays method is suggested for improving this phenomenon. Simulation results show that when a cache line is composed of multiple words, the stride merging-arrays method increases the cache performance due to not only the reduction of cache conflict misses but also the useful data prefetching. This enhanced cache performance also represents the more scalable performance of parallel applications according to increasing the number of processors.

HDD와 SSD의 혼합형 저장 시스템을 위한 절전형 버퍼 캐쉬 관리 (Low-power Buffer Cache Management for Mixed HDD and SSD Storage Systems)

  • 강효정;박준석;고건;반효경
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권4호
    • /
    • pp.462-466
    • /
    • 2010
  • 본 논문은 하드디스크와 NAND 플래시메모리를 동시에 사용하는 저장 시스템 환경에서 전력 소모를 최소화하는 버퍼 캐쉬 관리 기법을 제안한다. 저장장치별 전력 소모율과 입출력 연산 종류(읽기 또는 쓰기) 및 블록의 재참조 가능성(최근성 및 빈도)을 통합적으로 고려하는 버퍼 캐쉬 관리 기법의 설계로 저장 시스템의 전력 소모량을 평균 18.0%, 최대 58.9%까지 줄일 수 있음을 보인다.