• 제목/요약/키워드: 캐시 데이터

검색결과 256건 처리시간 0.028초

데이터 캐시의 활용도를 높이는 동적 선인출 필터링 기법 (Dynamic Prefetch Filtering Schemes to Enhance Utilization of Data Cache)

  • 전영숙;이병권;김석일;전중남
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (1)
    • /
    • pp.562-564
    • /
    • 2004
  • 캐시 선인출 기법은 메모리 참조에 따른 지연시간을 줄이는 효과적인 방법이다. 그러나 너무 적극적인 선인출은 캐시 오염을 유발시켜 선인출에 의한 장점을 상쇄시킨다. 본 연구에서는 캐시의 오염을 줄이기 위해 동적으로 필터 테이블을 참조하여 선인출 명령을 수행할 지의 여부를 결정하는 4가지 필터링 방법들을 비교 평가한다. 비교 연구를 위한 이상적인 필터링 구조를 제안하였으며, 기존 연구에서의 잠김 현상을 개선하기 위한 이진 상태 구조를 제안하였다. 또한, 정교한 필터링을 위한 블록주소 참조 방식을 제안하였다. 일반적으로 많이 사용되는 일반 벤치마크 프로그램과 멀티미디어 벤치마크 프로그램들에 대하여 실험한 결과, 캐시 미스율이 이진 상태 구조는 평균 5.6%, 블록주소 참조 구조는 7.9% 각각 감소하였다.

  • PDF

소형셀 환경에서 코어망 오프로딩을 위한 캐시 알고리즘 (Caching Algorithm for Core Network Offloading in Smallcell Environment)

  • 정소이;김재현
    • 전자공학회논문지
    • /
    • 제52권3호
    • /
    • pp.32-38
    • /
    • 2015
  • 본 논문에서는 소형셀 환경에서 사용자의 context를 반영한 local caching 알고리즘을 제안한다. 소형셀 내부에 캐시를 이용하면 코어망으로 전달되는 트래픽을 감소시킬 뿐만 아니라 네트워크 비용을 절감시키고 통신의 성능을 증가시킬 수 있다. 제안하는 알고리즘은 소형셀 특성을 활용해 각 소형셀 사용자에 맞는 적절한 데이터를 캐시에 저장한다. 이를 통해 제한된 캐시저장 공간을 효율적으로 사용하고 고전적인 웹 캐시 방식에 비해 캐시 적중률을 높였다. 성능분석을 위해 코어망 트래픽 감소량을 나타내는 cache efficiency를 정의하고 제안한 알고리즘의 성능을 검증한 결과 기존 웹 캐시 방식에 비해 200%의 성능향상이 있었다.

스크래치패드 메모리를 위한 데이터 관리 기법 리뷰 (A Review of Data Management Techniques for Scratchpad Memory)

  • 조두산
    • 문화기술의 융합
    • /
    • 제9권1호
    • /
    • pp.771-776
    • /
    • 2023
  • 스크래치패드 메모리는 소프트웨어 제어 온칩 메모리로서 기존의 캐시 메모리의 단점을 완화할 수 있게 설계되어 이용되고 있다. 기존의 캐시 메모리는 태그 관련 하드웨어 제어 로직이 있어 캐시 미스를 사용자가 직접 제어할 수 없으며, 사이즈가 크고 에너지 소모량이 상대적으로 많다. 스크래치패드 메모리는 이러한 하드웨어 오버헤드를 제거하였기 때문에 사이즈, 에너지 소모량에서 장점이 있으나 데이터 관리를 소프트웨어가 해야하는 부담이 존재한다. 본 연구에서는 스크래치패드 메모리의 데이터 관리 기법들을 분류하여 살펴보고 그 장점을 극대화할 수 있는 방안에 대하여 논의하였다.

CC-GiST: 임의의 캐시 인식 검색 트리를 효율적으로 구현하기 위한 일반화된 프레임워크 (CC-GiST: A Generalized Framework for Efficiently Implementing Arbitrary Cache-Conscious Search Trees)

  • 노웅기;김원식;한욱신
    • 정보처리학회논문지D
    • /
    • 제14D권1호
    • /
    • pp.21-34
    • /
    • 2007
  • 최근 메인 메모리 가격이 하락하고 용량이 크게 증가함에 따라 메인 메모리 데이터베이스에 기반한 응용이 급격히 증가하고 있다. 캐시 미스 (cache miss)는 CPU에서 액세스하고자 하는 데이터가 캐시에 존재하지 않아 메모리로부터 읽어 들이는 과정이며, 메인 메모리 데이터베이스의 성능 감소의 중요한 원인이다. 메인 메모리 데이터베이스에서의 캐시 미스를 줄이고 캐시를 최대한 활용하기 위하여 여러 가지 캐시 인식 트리들(cache conscious trees)이 제안되었다. 이러한 캐시 인식 트리들은 각각 특성이 다르므로 하나의 응용에서 둘 이상의 캐시 인식 트리들이 동시에 관리될 수 있다. 또한, 만약 기존의 캐시 인식 트리가 응용에서의 요구를 만족시키지 못하면 새로운 캐시 인식 트리를 구현하여야 한다. 본 논문에서는 캐시 인식하는 일반화된 검색 트리(Cache-Conscious Generalized Search Tree, CC-GiST)를 제안한다. CC-GiST는 디스크 기반의 일반화된 검색 트리 (Generalized Search Tree, GiST) [HNP95]를 캐시 인식하도록 확장한 것이며, 포인터 압축(pointer compression)과 키 압축(key compression) 기법을 비롯하여 임의의 캐시 인식 트리의 공통적인 기능 및 알고리즘들을 동시에 제공한다. CC-GiST를 기반으로 특정 캐시 인식트리를 구현하려면 그 트리에 해당된 기능만을 구현하면 된다. 본 논문에서는 CC-GiST를 기반으로 기존의 대표적인 캐시 인식 트리인 CSB+-트리, pkB-트리, CR-트리를 구현하는 방법을 기술한다. CC-GiST를 이용함에 따라 메인 메모리 데이터베이스 응용에서 여러 개의 캐시 인식 트리를 관리하는 번거로움에서 벗어날 수 있고, 응용의 요구에 따른 새로운 캐시 인식 트리를 최소한의 노력으로 효율적으로 구현할 수 있다.

확장성 있는 무선 인터넷 프록시 서버 클러스터를 위한 동적 해싱 기반의 부하분산 (A Dynamic Hashing Based Load Balancing for a Scalable Wireless Internet Proxy Server Cluster)

  • 곽후근;김동승;정규식
    • 정보처리학회논문지A
    • /
    • 제14A권7호
    • /
    • pp.443-450
    • /
    • 2007
  • 대용량 무선 인터넷 프록시 캐시 서버 클러스터에서는 성능 및 저장 공간의 확장성이 중요하게 되었다. 여기에서 성능의 확장성은 캐시 서버를 추가함에 따라 클러스터 성능이 선형적으로 증가함을 의미하고 저장 공간의 확장성은 캐시 데이터가 서버들에게 분할 저장되어 있어서 캐시 서버의 수에 상관없이 캐시 데이터를 저장하는 클러스터안의 공간의 합은 일정함을 의미한다. 대용량 서버 클러스터에서 많이 사용되는 라운드로빈 기반 부하분산 방법은 성능의 확장성은 보장되지만, 요청 URL 데이터가 모든 서버에 저장되어야 하므로 저장 공간의 확장성이 없는 단점을 가진다. 해싱기반 부하분산 방법은 모든 요청 URL 데이터가 서버들에 분할 저장되어 있어서 저장 공간의 확장성을 가진다. 그러나 그 방법은 사용자의 요청 패턴 불균형 또는 특정서버로의 요청 집중(Hot-Spot) 시에 성능 확장성이 없다. 본 논문에서는 성능 및 저장 공간의 확장성을 보장하는 새로운 동적 해싱 부하분산기법을 제안한다. 제안된 기법에서는 주기적으로 과부하 상태의 캐시 서버에 할당된 요청들을 찾아서 다른 캐시서버로 동적으로 재할당한다. 제안된 방법을 16대의 컴퓨터를 사용하여 실험을 수행하였고, 실험 결과를 통해 제안된 방법이 기존 방법과는 달리 성능 및 저장 공간의 확장성을 보장함을 확인하였다.

콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구 (A Comparison Study on Data Caching Policies of CCN)

  • 김대엽
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.327-334
    • /
    • 2017
  • 네트워크 성능 향상을 위하여 CDN/P2P와 같은 기술들은 이전에 사용자들 또는 프락시 시스템에 저장되어 있는 복사본을 사용하도록 설계 되었다. CCN 역시 이와 같은 기능을 구현한다. 그러나 CDN/P2P와 달리, CCN은 이와 같은 캐시 기능을 네트워크 노드에 구현하고, 네트워크 노드들이 콘텐츠 요청 메시지에 직접 응답할 수 있도록 설계 되었다. 그러므로 CCN의 성능에 가장 중요한 요소는 캐시 되는 콘텐츠와 노드를 결정하는 기술이다. 기본적으로, CCN은 콘텐츠가 전송될 때 경유하는 모든 네트워크 노드들에 해당 콘텐츠가 캐시 되도록 설계되었지만, 이와 같은 접근 방법은 중복 캐시 발생으로 인하여 매우 비효율적이라 할 수 있다. 이러한 문제를 해결하기 위하여 다양한 캐시 운영 방법이 제안되었다. 본 논문에서는 지금까지 제안된 캐시 운영 방안들을 살펴보고, 실제 운영을 위해 필요한 효과적인 캐시 운영을 위한 핵심 요구사항들을 제안한다.

복수 캐시로 구성한 미디어 프로세서의 설계 (Design of A Media Processor Equipped with Dual Cache)

  • 문현주;전중남;김석일
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권10호
    • /
    • pp.573-581
    • /
    • 2002
  • 본 논문에서는 미디어 프로세서에서 메모리 지연으로 인한 성능 저하를 방지하기 위하여 멀티미디어 데이타 캐시와 일반 데이타 캐시로 구성된 이중 캐시 구조의 미디어 프로세서를 제안하였다. 제안된 프로세서에서는 응용 프로그램에서 서브워드 명령으로 표현되는 멀티미디어 데이타를 멀티미디어 캐시에 적재하고 나머지 데이타를 일반 데이타 캐시에 적재하도록 하였다. 또한 멀티미디어 데이타 캐시는 멀티미디어 데이타의 높은 지역성을 활용하도록 2개의 데이타 블록을 동시에 인출하는 선인출 기법을 적용하였다. MPEG과 JPEG 벤치마크에 대한 실험 결과, 제안한 프로세서의 캐시구조가 단일 캐시 구조에 비하여 성능이 우수하였다.

Designing a low-power L1 cache system using aggressive data of frequent reference patterns

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.9-16
    • /
    • 2022
  • 오늘날, 4차산업혁명의 도래와 함께 사물인터넷(Internet of Things (IoT)) 시스템이 빠르게 발전하고 있다. 이러한 이유로, 고성능 및 대용량의 다양한 애플리케이션이 등장하고 있다. 따라서, 이러한 애플리케이션을 가지는 컴퓨팅 시스템을 위한 저전력 및 고성능 메모리가 필요하다. 본 논문에서는 컴퓨팅 시스템에서 가장 많은 에너지 소비가 발생하는 L1 캐시 메모리에 대한 효과적인 구조를 제안하였다. 제안된 캐시 시스템은 크게 L1 메인 캐시와 버퍼캐시로 구성되어 진다. 메인 캐시는 2-뱅크 시스템으로, 각 뱅크는 2-웨이 연관사상으로 구성된다. L1캐시에서 접근 성공이 발생하면 제안된 알고리즘에 따라 데이터가 버퍼캐시에 복사가 된다. 시뮬레이션 결과에 따르면, 제안된 L1 캐시 시스템은 기존 4웨이 연관사상 캐시 메모리에 비해 에너지-지연에서 약65%의 성능향상을 보였다.

이차원 블록 구조에 근거한 선인출 기법 (A Multimedia Data Prefetching Based on 2 Dimensional Block Structure)

  • 김석주
    • 한국멀티미디어학회논문지
    • /
    • 제7권8호
    • /
    • pp.1086-1096
    • /
    • 2004
  • 스트리밍 데이터를 다루는 멀티미디어 응용의 경우 캐시 관리 측면에서 데이터의 시간적 지역성이 약하여 캐시의 효율이 감소하게 된다. 이는 캐시에 적재된 데이터가 대부분 다시 사용되지 않고 바뀌게 됨을 의미한다. 반면에 이러한 데이터들은 참조 명령에 따른 규칙적인 접근 패턴을 갖고 있는 경우가 많다. 이 논문에서는 약한 시간적 지역성을 나타내는 멀티미디어 응용 데이터에서도 통상적으로 내재된 메모리 참조의 규칙성을 적극적으로 활용하기 위해 동적 등차 참조 선인출 기법의 기능과 함께 이차원 배열 형식(블록)을 찾을 수 있는 방법을 제안한다. 제안된 방법은 블록 구조를 인식하고 이에 따라 선인출 주소를 계산 하므로 블록 참조 예측 기법 (BRPT: block-reference-prediction-technique)이라고 명한다. BRPT는 새로운 규칙으로 인해 선인출 기구가 더 복잡하지만 블록 패턴이 많은 응용의 경우 메모리 참조 시간을 크게 줄이는 것을 확인하였다.

  • PDF

대용량 파일시스템을 위한 선택적 압축을 지원하는 인-메모리 캐시의 설계와 구현 (Design and Implementation of an In-Memory File System Cache with Selective Compression)

  • 최형원;서의성
    • 정보과학회 논문지
    • /
    • 제44권7호
    • /
    • pp.658-667
    • /
    • 2017
  • DRAM 기반의 인메모리 캐시는 고비용으로 인해 용량을 늘리는 데에는 한계가 있다. 이를 위해 압축을 이용하여 더 많은 데이터를 캐시하는 기법들이 연구되어 왔다. 그러나 압축은 높은 처리부하와 반응 지연을 야기한다. 본 논문에서는 섀넌 엔트로피를 통해 파일의 압축률을 낮은 오버헤드를 통해 고속으로 예측하여, 높은 압축률을 가진 파일만 압축하는 선택적 압축 기법을 제안하였다. 또한 이를 파일시스템 내에서 실제 사용이 가능하도록 커널 레벨에서 파일 시스템을 위한 인메모리 캐시를 제공하도록 구현하였다. 실험 결과 선택적 압축 기법은 비 압축에 비해 약 18%의 실행시간 감소를 보이며, 전체 캐시 데이터 압축 방법에 비해서도 캐시 히트율의 감소에 의한 성능하락을 최소화 시키고, 동시에 압축에 대한 오버헤드를 줄여, 7.5%의 실행시간을 감소시킬 수 있음을 보였다. 또한 압축에 사용되는 CPU사용시간을 모두 압축 했을 때와 비교하여 28%감소시킬 수 있음을 보여주었다.