• 제목/요약/키워드: 버퍼 캐시 정책

검색결과 21건 처리시간 0.021초

MLC-LFU : 플래시 메모리를 위한 멀티레벨 버퍼 캐시 관리 정책 (MLC-LFU : The Multi-Level Buffer Cache Management Policy for Flash Memory)

  • 옥동석;이태훈;정기동
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권1호
    • /
    • pp.14-20
    • /
    • 2009
  • 플래시 메모리는 현재 휴대용 기기 뿐 아니라 개인용 컴퓨터와 서버용 컴퓨터에서 널리 사용되고 있다 하드디스크를 위한 버퍼 캐시 교체 정책인 LRU(Least Recently Used)와 LFU(Least Frequently Used)는 플래시 메모리의 특성을 전혀 고려하지 않아 플래시 메모리에 적합하지 않다. 기존에 연구되었던 CFLRU(Clean-First LRU)와 그 변형인 CFLRU/C, CFLRU/E, DL-CPLRU/E는 플래시 메모리의 특성을 고려하였지만 hit ratio가 LRU와 LFU에 비하여 좋지 않다. 본 논문에서는 기존의 버퍼 캐시 교체 정책들을 보완하는 새로운 버퍼 캐시 교체 정책을 제안한다. 이 버퍼 캐시 교체 정책은 LFU를 기반으로 하고 플래시 메모리의 특성을 고려하였다. 그리고 이 새로운 버퍼 캐시 교체 정책을 기존 플래시 메모리 버퍼 캐시 교체 정책과 hit ratio와 flush 횟수를 비교하여 성능을 평가한다.

SAN 환경을 위한 효율적인 전역버퍼 관리 알고리즘 (IT-based Technology An Efficient Global Buffer Management ,algorithm for SAN Environments)

  • 이석재;박새미;송석일;유재수;이장선
    • 한국콘텐츠학회논문지
    • /
    • 제4권3호
    • /
    • pp.71-80
    • /
    • 2004
  • 분산파일시스템 환경에서는 디스크 접근 비용을 줄이기 위해 각 노드에 캐시된 데이터를 서로 공유하는 협력캐시 알고리즘이 사용된다. 협력캐시 알고리즘은 분산되어있는 시스템들의 캐시정보를 서로 공유하여 가상으로 더 큰 캐시를 형성함으로써 캐시 히트율을 높이고 디스크 접근을 줄이는 방법이다. 기존에 제안된 협력캐시 알고리즘들은 캐시에 대한 근사정보를 이용하여 메시지 비용을 줄이고, 로컬캐시영역과 글로벌캐시 영역을 가변적으로 사용하여 캐시 히트율을 높이고 있다. 또한 버퍼 교체 시 교체된 버퍼를 비활동적인 노드로 보내어 계속 캐시에 유지하도록 하여 전역 버퍼 히트율을 높이는 장점을 갖는다. 그러나 잘못된 근사정보가 성능을 저하시킬 수 있으며 일관성 유지를 위한 메시지교환 비용이 많이 든다는 단점을 갖고 있다. 또한 비활동적인 노드를 선정하기 위해 사용되는 각 노드의 에이지 정보 관리비용이 많이 드는 단점을 갖고 있다. 본 논문에서는 정확한 캐시정보를 유지하며 일관성 유지비용과 버퍼 에이지 정보 관리비용을 최소화시키는 협력캐시 알고리즘을 제안한다. 그리고 성능평가를 통해 기존의 협력캐시 알고리즘과 비교하여 제안하는 알고리즘의 우수성을 보인다.

  • PDF

모바일 애플리케이션의 특성을 이용한 하이브리드 메모리 기반 버퍼 캐시 정책 (Hybrid Main Memory based Buffer Cache Scheme by Using Characteristics of Mobile Applications)

  • 오찬수;강동현;이민호;엄영익
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1314-1321
    • /
    • 2015
  • 모바일 디바이스는 데스크톱이나 서버 등 일반 컴퓨터 시스템과 마찬가지로 주기억장치와 스토리지와의 성능 차이를 완화시키기 위해 버퍼 캐시를 사용한다. 그러나 DRAM 은 저장된 데이터를 유지하기 위해 주기적인 refresh 연산을 수행함으로써 제한된 크기의 배터리 소모를 가속화하는 문제점을 가지고 있다. 본 논문에서는 모바일 디바이스 환경에서 배터리의 수명을 연장하기 위해 DRAM과 비휘발성 메모리인 PCM으로 구성된 하이브리드 메인 메모리 구조기반의 버퍼캐시 정책을 소개한다. 또한, PCM의 성능 및 내구성 특성을 최적화시키기 위해 프로세스 상태 기반의 새로운 버퍼 캐시 정책을 제안한다. 제안 기법은 포그라운드 및 백그라운드 애플리케이션이 사용하는 페이지를 서로 다른 방법으로 배치함으로써 소량의 DRAM으로도 포그라운드 애플리케이션의 빠른 응답성을 보장한다. 실험 결과, 제안 기법은 포그라운드 애플리케이션의 총 수행시간을 평균 58% 감소시켰으며 전력 소비량도 평균 23% 감소시키는 것을 확인하였다.

연속미디어 파일 시스템의 버퍼 캐시에서 데이터 참조 유형의 고려 (Considering Data Reference Pattern in Buffer Cache for Continuous Media File System)

  • 조경운;류연승;고건
    • 정보처리학회논문지A
    • /
    • 제9A권2호
    • /
    • pp.163-170
    • /
    • 2002
  • 연속미디어 파일을 위한 버퍼 캐시 기법들은 연속 미디어의 순차적 접근만을 고려하고 반복참조는 고려하지 않았다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 연속미디어 파일 시스템을 위한 새로운 버퍼 캐시 기법을 제안한다. 제안한 기법은 파일의 참조 유형을 탐지하고 파일 별로 적절한 교체 정책을 적용하여 버퍼 캐시 적중률을 높인다.

저전력 버퍼 캐시 (Power Aware Suffer Cache)

  • 이민;서의성;이준원
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (A)
    • /
    • pp.766-768
    • /
    • 2005
  • 컴퓨팅 환경이 무선과 휴대용 시스템으로 변화하면서, 전력효율이 점점 중요해지고 있다. 특히 내장형 시스템일 경우에 더욱 그러한데 이중 메모리에서 소모되는 전력이 전체 전력소모의 두 번째 큰 요소가 되고 있다. 메모리 시스템에서의 전력소모를 줄이기 위해서 DRAM의 저전력 모드인 냅모드(nap mode)를 활용할 수 있다. 냅모드는 액티브 모드(active mode)일 때의 $28\%$의 전력만을 소모한다. 하지만 하드웨어 컨트롤러는 운영체제가 협조하지 않으면 이 기능을 효율적으로 활용하지 못한다. 이 논문에서는 DRAM의 액티브 유닛(active unit)의 수를 최소화하는 방법에 초점을 맞춘다. 운영체제는 참조되지 않는 메모리를 냅모드에 놓음으로써 최소한의 유닛들만을 액티브 모드에 놓아 프로그램이 수행될 수 있도록 피지컬(physical) 페이지들을 할당한다. 이것은 PAVM(Power Aware Virtual Memory) 연구의 일반화된 시스템 전반에 대한 연구라고 할 수 있다. 우리는 모든 피지컬 메모리를 고려하고 있으며, 특히 평균적으로 전체 메모리의 절반을 사용하는 버퍼 캐시를 고려하고 있다. 버퍼 캐시의 용량과 그 중요성 때문에 PAVM 방식은 버퍼 캐시를 고려하지 않고는 완전한 해법이 되지 못한다. 이 논문에서 우리는 메모리의 사용처를 분석하고 저전력 페이지 할당 정책을 제안한다. 특히 프로세스의 주소공간에 매핑(mapping)된 페이지들과 버퍼 캐시가 고려된다. 이 두 종류의 페이지들간의 상호작용과 그 관계를 분석하고 저전력을 위해 이러한 관계를 이용한다.

  • PDF

하이브리드 메인 메모리와 스토리지의 특성을 고려한 버퍼 캐시 교체 정책 (A Buffer Cache Replacement Algorithm for Considering both Hybrid Main Memory and Storage)

  • 강동현;엄영익
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.947-953
    • /
    • 2015
  • PRAM은 바이트 단위의 쓰기와 비휘발성의 특징을 모두 가지고 있으며, DRAM보다 높은 밀 집도가 기대되기 때문에 DRAM을 대체할 수 있을 것으로 예상된다. 이에, PRAM 기반의 버퍼 캐시 교체정책에 대한 연구가 활발하게 진행되고 있다. 그러나 대부분의 기존 연구는 PRAM의 수명 및 느린 쓰기 성능에만 집중함으로써 PRAM의 바이트 단위의 쓰기 성능을 제한적으로 이용한다. 이에, 본 논문에서는 PRAM의 바이트 단위의 쓰기 성능과 스토리지의 성능을 모두 고려한 새로운 버퍼 캐시 교체 정책을 제안 한다. 제안 기법은 바이트 단위의 쓰기 성능을 이용하기 위해 작은 크기의 쓰기 요청이 빈번한 페이지를 PRAM에 유지시키며 DRAM과 PRAM사이의 선택적 페이지 이동을 통해 PRAM의 쓰기 횟수를 감소시킨다. 실험 결과, 제안 기법은 CLOCK 알고리즘에 비해 최고 92%까지 PRAM의 쓰기 횟수를 감소시키고 PRAM 테스트 보드에서 최대 62%까지 수행시간을 향상시키는 것을 확인하였다.

Designing a low-power L1 cache system using aggressive data of frequent reference patterns

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.9-16
    • /
    • 2022
  • 오늘날, 4차산업혁명의 도래와 함께 사물인터넷(Internet of Things (IoT)) 시스템이 빠르게 발전하고 있다. 이러한 이유로, 고성능 및 대용량의 다양한 애플리케이션이 등장하고 있다. 따라서, 이러한 애플리케이션을 가지는 컴퓨팅 시스템을 위한 저전력 및 고성능 메모리가 필요하다. 본 논문에서는 컴퓨팅 시스템에서 가장 많은 에너지 소비가 발생하는 L1 캐시 메모리에 대한 효과적인 구조를 제안하였다. 제안된 캐시 시스템은 크게 L1 메인 캐시와 버퍼캐시로 구성되어 진다. 메인 캐시는 2-뱅크 시스템으로, 각 뱅크는 2-웨이 연관사상으로 구성된다. L1캐시에서 접근 성공이 발생하면 제안된 알고리즘에 따라 데이터가 버퍼캐시에 복사가 된다. 시뮬레이션 결과에 따르면, 제안된 L1 캐시 시스템은 기존 4웨이 연관사상 캐시 메모리에 비해 에너지-지연에서 약65%의 성능향상을 보였다.

EXT3NS 파일 시스템을 위한 버퍼 캐시의 설계 및 구현 (Design and Implementation of Buffer Cache for EXT3NS File System)

  • 손성훈;정성욱
    • 한국정보통신학회논문지
    • /
    • 제10권12호
    • /
    • pp.2202-2211
    • /
    • 2006
  • EXT3NS 파일 시스템은 Network-Storage Card(NS 카드)라는 전용 하드웨어를 기반으로 하는 멀티미디어 스트리밍 서버를 위한 파일 시스템이다. EXT3NS는 NS 카드 상의 PCI memory(PMEM)를 이용, 스트리밍 시 디스크에 있는 데이터를 메인 메모리를 거치지 않고 바로 네트워크 카드로 내보냄으로써 스트리밍 서버의 성능을 향상시킨다. 본 논문에서는 NS 카드에 있는 PMEM을 기반으로 한 버퍼 캐시를 추가 설계, 구현하고, 이 버퍼 캐시가 EXT3NS 파일 시스템을 채용한 서버의 멀티미디어 스트리밍의 성능을 개선시킬 수 있음을 보인다. 또한, 제안된 버퍼 캐시 상에서 다수의 동시 사용자를 지원하는 멀티 미디어 스트리 밍 서버를 위한 버퍼 캐시 교체 정책인 Old New Section(ONS) 교체 기법을 제안한다. 제안된 OSN 교체 기법은 멀티미디어 스트리밍 환경에서 기존의 교체 정책들 보다 좋은 성능을 보인다. 성능 평가 결과, 다시 읽기동작과 무작위 읽기 동작에서 기존의 EXT3NS 파일 시스템 보다 PMEM에 캐시를 사용한 EXT3NS가 각각 평균 33MB/sec, 2.4MB/sec의 성능이 향상 되었다. 또한, 다시 읽기 동작의 경우 기존의 Least Frequently Used(LFU) 교체 정 책을 사용한 경우보다 ONS 교체 정책을 사용한 경우가 약 600KB/sec의 성능 증가를 보인다. 이러한 결과는 동시에 여러명의 사용자 요구를 처리해야 하는 대용량 멀티 미디어 스트리밍 서버에서 보다 효과적인 읽기 동작을 처리할 수 있음을 나타낸다.

리눅스 상에서 멀티미디어 데이타를 고려한 지역 버퍼 할당 기법 (A Local Buffer Allocation Scheme for Multimedia Data on Linux)

  • 신동재;박성용;양지훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.410-419
    • /
    • 2003
  • 리눅스와 같은 범용 운영체제의 버퍼 캐시(buffer cache)는 전역적(global) 블록 교체 및 미리읽기(read ahead) 정책 등을 사용하여 파일 블록을 관리한다. 따라서, 참조의 지역성(locality)을 가지지 않고 다양한 소비율(consumption rate)을 갖고 있는 멀티미디어 데이타의 경우 캐시 시스템의 적중률이 낮을 뿐만 아니라 미리읽기의 특성으로 인하여 필요보다 과도하게 버퍼를 소비하기도 한다. 본 논문에서는 리눅스 상에서 멀티미디어 데이타를 위한 새로운 버퍼 할당 기법을 설계하고 구현하였다. 제안된 방법에서는 멀티미디어 파일마다 독립적인 미리읽기 캐시를 유지하며 미리읽기 그룹의 크기를 소비율에 비례하도록 동적으로 조절한다. 이는 공정한 자원 분배가 이루어지도록 하며, 버퍼의 소비량을 최적화되도록 한다. 본 논문에서는 구현된 시스템과 최신의 리눅스 커널 2.4.17 버전 상에서 각각 소비되는 버퍼 수와 캐시 적중률을 실험을 통하여 비교함으로써 시스템의 성능을 평가한다.

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.