• 제목/요약/키워드: buffer cache

검색결과 132건 처리시간 0.024초

연속미디어 파일 시스템의 버퍼 캐시에서 데이터 참조 유형의 고려 (Considering Data Reference Pattern in Buffer Cache for Continuous Media File System)

  • 조경운;류연승;고건
    • 정보처리학회논문지A
    • /
    • 제9A권2호
    • /
    • pp.163-170
    • /
    • 2002
  • 연속미디어 파일을 위한 버퍼 캐시 기법들은 연속 미디어의 순차적 접근만을 고려하고 반복참조는 고려하지 않았다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 연속미디어 파일 시스템을 위한 새로운 버퍼 캐시 기법을 제안한다. 제안한 기법은 파일의 참조 유형을 탐지하고 파일 별로 적절한 교체 정책을 적용하여 버퍼 캐시 적중률을 높인다.

이기종 저장 장치 환경을 위한 버퍼 캐시 관리 기법 (An Efficient Buffer Cache Management Scheme for Heterogeneous Storage Environments)

  • 이세환;고건;반효경
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제37권5호
    • /
    • pp.285-291
    • /
    • 2010
  • 플래시 메모리는 하드 디스크에 비해 크기가 작고 물리적 충격에 강하며 전력 소모가 적은 점 등 많은 장점을 가지고 있지만 아직까지 단위 공간당 가격이 높아 하드 디스크를 전면 대체하기는 어려운 실정이다. 최근 노트북 컴퓨터 동 일부 모바일 장치에서는 하드 디스크와 플래시 메모리를 함께 사용하여 두 매체의 장점을 극대화하려는 시도가 이루어지고 있다. 하지만 기존 운영체제는 이기종 저장 장치 환경이 아닌 단일 저장 장치 환경에 최적화되어 이러한 장점을 충분히 살리지 못하고 있다. 본 논문에서는 이를 해결하기 위해 세 가지 기법을 이용하는 새로운 버퍼 캐시 관리 기법을 제안한다. 첫째, 입출력 접근 패턴을 탐지하고 블록의 저장 위치 별 성능 특성을 분석한 후 동적 한계 효용에 근거하여 버퍼 캐시 공간을 할당한다. 둘째, 입출력 접근 패턴과 저장 장치 특성에 따라서 선택적으로 선반입 기법을 적용한다. 셋째, 버퍼 캐시에서 저장 장치로 쫓겨날 때 해당 블록의 접근 패턴에 따라 하드 디스크와 플래시 메모리 중 더 적합한 매체를 결정하고 그 매체에 블록이 저장되도록 한다. 제안하는 기법들을 트레이스 기반 시뮬레이션으로 검증한 결과 기존 기법에 비해 버퍼 캐시 적중률은 29.9%, 총 실행시간은 49.5% 향상되었다.

SAN 환경을 위한 효율적인 전역버퍼 관리 알고리즘 (IT-based Technology An Efficient Global Buffer Management ,algorithm for SAN Environments)

  • 이석재;박새미;송석일;유재수;이장선
    • 한국콘텐츠학회논문지
    • /
    • 제4권3호
    • /
    • pp.71-80
    • /
    • 2004
  • 분산파일시스템 환경에서는 디스크 접근 비용을 줄이기 위해 각 노드에 캐시된 데이터를 서로 공유하는 협력캐시 알고리즘이 사용된다. 협력캐시 알고리즘은 분산되어있는 시스템들의 캐시정보를 서로 공유하여 가상으로 더 큰 캐시를 형성함으로써 캐시 히트율을 높이고 디스크 접근을 줄이는 방법이다. 기존에 제안된 협력캐시 알고리즘들은 캐시에 대한 근사정보를 이용하여 메시지 비용을 줄이고, 로컬캐시영역과 글로벌캐시 영역을 가변적으로 사용하여 캐시 히트율을 높이고 있다. 또한 버퍼 교체 시 교체된 버퍼를 비활동적인 노드로 보내어 계속 캐시에 유지하도록 하여 전역 버퍼 히트율을 높이는 장점을 갖는다. 그러나 잘못된 근사정보가 성능을 저하시킬 수 있으며 일관성 유지를 위한 메시지교환 비용이 많이 든다는 단점을 갖고 있다. 또한 비활동적인 노드를 선정하기 위해 사용되는 각 노드의 에이지 정보 관리비용이 많이 드는 단점을 갖고 있다. 본 논문에서는 정확한 캐시정보를 유지하며 일관성 유지비용과 버퍼 에이지 정보 관리비용을 최소화시키는 협력캐시 알고리즘을 제안한다. 그리고 성능평가를 통해 기존의 협력캐시 알고리즘과 비교하여 제안하는 알고리즘의 우수성을 보인다.

  • PDF

Designing a low-power L1 cache system using aggressive data of frequent reference patterns

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.9-16
    • /
    • 2022
  • 오늘날, 4차산업혁명의 도래와 함께 사물인터넷(Internet of Things (IoT)) 시스템이 빠르게 발전하고 있다. 이러한 이유로, 고성능 및 대용량의 다양한 애플리케이션이 등장하고 있다. 따라서, 이러한 애플리케이션을 가지는 컴퓨팅 시스템을 위한 저전력 및 고성능 메모리가 필요하다. 본 논문에서는 컴퓨팅 시스템에서 가장 많은 에너지 소비가 발생하는 L1 캐시 메모리에 대한 효과적인 구조를 제안하였다. 제안된 캐시 시스템은 크게 L1 메인 캐시와 버퍼캐시로 구성되어 진다. 메인 캐시는 2-뱅크 시스템으로, 각 뱅크는 2-웨이 연관사상으로 구성된다. L1캐시에서 접근 성공이 발생하면 제안된 알고리즘에 따라 데이터가 버퍼캐시에 복사가 된다. 시뮬레이션 결과에 따르면, 제안된 L1 캐시 시스템은 기존 4웨이 연관사상 캐시 메모리에 비해 에너지-지연에서 약65%의 성능향상을 보였다.

리눅스 상에서 멀티미디어 데이타를 고려한 지역 버퍼 할당 기법 (A Local Buffer Allocation Scheme for Multimedia Data on Linux)

  • 신동재;박성용;양지훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.410-419
    • /
    • 2003
  • 리눅스와 같은 범용 운영체제의 버퍼 캐시(buffer cache)는 전역적(global) 블록 교체 및 미리읽기(read ahead) 정책 등을 사용하여 파일 블록을 관리한다. 따라서, 참조의 지역성(locality)을 가지지 않고 다양한 소비율(consumption rate)을 갖고 있는 멀티미디어 데이타의 경우 캐시 시스템의 적중률이 낮을 뿐만 아니라 미리읽기의 특성으로 인하여 필요보다 과도하게 버퍼를 소비하기도 한다. 본 논문에서는 리눅스 상에서 멀티미디어 데이타를 위한 새로운 버퍼 할당 기법을 설계하고 구현하였다. 제안된 방법에서는 멀티미디어 파일마다 독립적인 미리읽기 캐시를 유지하며 미리읽기 그룹의 크기를 소비율에 비례하도록 동적으로 조절한다. 이는 공정한 자원 분배가 이루어지도록 하며, 버퍼의 소비량을 최적화되도록 한다. 본 논문에서는 구현된 시스템과 최신의 리눅스 커널 2.4.17 버전 상에서 각각 소비되는 버퍼 수와 캐시 적중률을 실험을 통하여 비교함으로써 시스템의 성능을 평가한다.

Dual Cache Architecture for Low Cost and High Performance

  • Lee, Jung-Hoon;Park, Gi-Ho;Kim, Shin-Dug
    • ETRI Journal
    • /
    • 제25권5호
    • /
    • pp.275-287
    • /
    • 2003
  • We present a high performance cache structure with a hardware prefetching mechanism that enhances exploitation of spatial and temporal locality. Temporal locality is exploited by selectively moving small blocks into the direct-mapped cache after monitoring their activity in the spatial buffer. Spatial locality is enhanced by intelligently prefetching a neighboring block when a spatial buffer hit occurs. We show that the prefetch operation is highly accurate: over 90% of all prefetches generated are for blocks that are subsequently accessed. Our results show that the system enables the cache size to be reduced by a factor of four to eight relative to a conventional direct-mapped cache while maintaining similar performance.

  • PDF

SAN 환경의 대용량 클러스터 파일 시스템을 위한 광역 버퍼 관리기의 설계 (Design of Global Buffer Manager in SAN-based Cluster File Systems)

  • 이규웅
    • 한국정보통신학회논문지
    • /
    • 제15권11호
    • /
    • pp.2404-2410
    • /
    • 2011
  • 본 논문은 SAN 기반의 클러스터 파일 시스템 $SANique^{TM}$의 설계 고려사항을 설명하고 특히 대규모의 호스트들이 연결된 상황에서 광역 버퍼 관리기의 데이터 공유 문제점을 기술하고 클러스터 환경에서 확장성과 가용성을 제공하기 위한 광역 버퍼 관리 기법을 제시한다. 제안하는 광역 버퍼 관리 기법은 $SANique^{TM}$ 시스템의 로크 관리기에서 관리되는 로크 정보를 활용하여 부가적인 통신 및 시간소요 없이 효율적인 데이터 공유를 제공하는 방법을 제시하였다. 또한 대규모 클러스터 환경에 적용 가능한 광역버퍼 관리기법의 의사코드 및 데이터 공유 예제를 통하여 본 방법의 효율성을 보였다.

가상메모리 화일과 버퍼캐쉬를 이용한 대형 데이타 화일의 처리에 관한 연구 (A Study on Large Data File Management Using Buffer Cache and Virtual Memory File)

  • 김병철;신병석;황희융
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1991년도 추계학술대회 논문집 학회본부
    • /
    • pp.185-188
    • /
    • 1991
  • In this paper we have designed and implemented a method of using extended memory and hard disk space as a data buffer for application programs to allow handling of large data files in DOS environment. We use a part of the conventional DOS memory as a buffer cache which allows the application program to use extended memory and hard disks transparently. Using buffer cache also allows some speed improvement for the application program. We have also implemented a number of functions to allow easier handling of pointer operations used by application programs.

  • PDF

비휘발성 버퍼 캐시를 이용한 파일 시스템의 주기적인 flush 오버헤드 개선 (Improving Periodic Flush Overhead of File Systems Using Non-volatile Buffer Cache)

  • 이은지;강효정;고건;반효경
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.878-884
    • /
    • 2014
  • 파일 시스템 버퍼 캐시는 느린 스토리지의 접근 횟수를 줄여 입출력 성능 향상에 기여하지만, 캐시에서 수정된 데이터를 스토리지에 오랫동안 반영하지 않을 경우 크래쉬 발생 시 최신 데이터가 유실되거나 데이터의 일관성이 깨어지는 문제가 발생할 수 있다. 이를 방지하기 위해 대부분의 운영체제는 수정 데이터를 주기적으로 스토리지에 반영하는 flush 데몬을 사용한다. 본 논문은 파일시스템의 쓰기 연산 중 30-70%가 주기적인 flush에 의해 발생함을 분석하고, 이를 소량의 NVRAM 버퍼 캐시를 이용하여 해결하는 기법을 제시한다. 특히, 본 논문은 델타 쓰기 및 그룹 기반 교체 기법을 제안하여 소량의 NVRAM 만으로 스토리지 쓰기 트래픽과 처리량을 각각 44.3%와 23.6% 개선할 수 있음을 보인다.

디지털 컨버전스 기기를 위한 지역 버퍼 캐쉬 파일 시스템 설계 및 구현 (Design and Implementation of File System Using Local Buffer Cache for Digital Convergence Devices)

  • 정근재;조문행;이철훈
    • 한국콘텐츠학회논문지
    • /
    • 제7권8호
    • /
    • pp.21-30
    • /
    • 2007
  • 오늘날 내장형 장치의 보급 증가와 반도체 및 저장장치 기술의 발달로 인해 디지털 컨버전스 기기들이 늘어나고 있다. 디지털 컨버전스 기기는 PMP, PDA, 스마트폰 등과 같이 하나의 디지털 기기에 통신, 동영상과 음악 재생, 전자 수첩, 전자 사전 등의 기능이 집적된 장치를 말한다. 따라서 이러한 장치에는 여러 기능을 관리하고 제어할 수 있는 효율적인 파일 시스템의 설계가 필요하다. 파일 시스템을 설계하는데 있어서는 소형화된 내장형 장치에 맞는 사이즈, 성능, 호환성 등을 고려해야 한다. 본 논문에서는 부분 버퍼 캐쉬 기법을 제안한다. 기존의 버퍼 캐쉬에 비해, 부분 버퍼 캐쉬는 FAT 데이터와 쓰기 전용 데이터를 저장한다. 시뮬레이션을 통해 파일 크기가 100KBye가 넘는 경우, 부분 버퍼 캐쉬를 사용함으로써 쓰기 성능을 30% 이상 증가시킬 수 있음을 보인다.