• 제목/요약/키워드: 버퍼 캐시

검색결과 68건 처리시간 0.033초

EXT3NS 파일 시스템을 위한 버퍼 캐시의 설계 및 구현 (Design and Implementation of Buffer Cache for EXT3NS File System)

  • 손성훈;정성욱
    • 한국정보통신학회논문지
    • /
    • 제10권12호
    • /
    • pp.2202-2211
    • /
    • 2006
  • EXT3NS 파일 시스템은 Network-Storage Card(NS 카드)라는 전용 하드웨어를 기반으로 하는 멀티미디어 스트리밍 서버를 위한 파일 시스템이다. EXT3NS는 NS 카드 상의 PCI memory(PMEM)를 이용, 스트리밍 시 디스크에 있는 데이터를 메인 메모리를 거치지 않고 바로 네트워크 카드로 내보냄으로써 스트리밍 서버의 성능을 향상시킨다. 본 논문에서는 NS 카드에 있는 PMEM을 기반으로 한 버퍼 캐시를 추가 설계, 구현하고, 이 버퍼 캐시가 EXT3NS 파일 시스템을 채용한 서버의 멀티미디어 스트리밍의 성능을 개선시킬 수 있음을 보인다. 또한, 제안된 버퍼 캐시 상에서 다수의 동시 사용자를 지원하는 멀티 미디어 스트리 밍 서버를 위한 버퍼 캐시 교체 정책인 Old New Section(ONS) 교체 기법을 제안한다. 제안된 OSN 교체 기법은 멀티미디어 스트리밍 환경에서 기존의 교체 정책들 보다 좋은 성능을 보인다. 성능 평가 결과, 다시 읽기동작과 무작위 읽기 동작에서 기존의 EXT3NS 파일 시스템 보다 PMEM에 캐시를 사용한 EXT3NS가 각각 평균 33MB/sec, 2.4MB/sec의 성능이 향상 되었다. 또한, 다시 읽기 동작의 경우 기존의 Least Frequently Used(LFU) 교체 정 책을 사용한 경우보다 ONS 교체 정책을 사용한 경우가 약 600KB/sec의 성능 증가를 보인다. 이러한 결과는 동시에 여러명의 사용자 요구를 처리해야 하는 대용량 멀티 미디어 스트리밍 서버에서 보다 효과적인 읽기 동작을 처리할 수 있음을 나타낸다.

하이브리드 메인 메모리와 스토리지의 특성을 고려한 버퍼 캐시 교체 정책 (A Buffer Cache Replacement Algorithm for Considering both Hybrid Main Memory and Storage)

  • 강동현;엄영익
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.947-953
    • /
    • 2015
  • PRAM은 바이트 단위의 쓰기와 비휘발성의 특징을 모두 가지고 있으며, DRAM보다 높은 밀 집도가 기대되기 때문에 DRAM을 대체할 수 있을 것으로 예상된다. 이에, PRAM 기반의 버퍼 캐시 교체정책에 대한 연구가 활발하게 진행되고 있다. 그러나 대부분의 기존 연구는 PRAM의 수명 및 느린 쓰기 성능에만 집중함으로써 PRAM의 바이트 단위의 쓰기 성능을 제한적으로 이용한다. 이에, 본 논문에서는 PRAM의 바이트 단위의 쓰기 성능과 스토리지의 성능을 모두 고려한 새로운 버퍼 캐시 교체 정책을 제안 한다. 제안 기법은 바이트 단위의 쓰기 성능을 이용하기 위해 작은 크기의 쓰기 요청이 빈번한 페이지를 PRAM에 유지시키며 DRAM과 PRAM사이의 선택적 페이지 이동을 통해 PRAM의 쓰기 횟수를 감소시킨다. 실험 결과, 제안 기법은 CLOCK 알고리즘에 비해 최고 92%까지 PRAM의 쓰기 횟수를 감소시키고 PRAM 테스트 보드에서 최대 62%까지 수행시간을 향상시키는 것을 확인하였다.

저전력을 위한 버퍼 캐쉬 관리 기법 (Buffer Cache Management for Low Power Consumption)

  • 이민;서의성;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권6호
    • /
    • pp.293-303
    • /
    • 2008
  • 컴퓨팅 환경이 무선과 휴대용 시스템으로 변화하면서, 전력효율이 점점 중요해지고 있다. 특히 내장형 시스템일 경우에 더욱 그러한데 이중 메모리에서 소모되는 전력이 전체 전력소모의 두 번째 큰 요소가 되고 있다. 메모리 시스템에서의 전력소모를 줄이기 위해서 SDRAM의 저전력 모드를 활용할 수 있다. RDRAM의 경우 냅모드(nap mode)는 액티브 모드(active mode)의 5%이하의 전력만을 소모한다. 하지만 하드웨어 컨트롤러는 운영체제가 협조하지 않으면 이 기능을 효율적으로 활용하지 못한다. 이 논문에서는 SDRAM의 액티브 유닛(active unit)의 수를 최소화하는 방법에 초점을 맞춘다. 운영체제는 참조되지 않는 메모리를 저전력 모드에 놓음으로써 최소한의 유닛들만을 액티브 모드에 놓은 상태로 프로그램이 수행될 수 있도록 피지컬(physical) 페이지들을 할당한다. 이것은 PAVM(Power Aware Virtual Memory) 연구의 일반화된 시스템 전반에 대한 연구라고 할 수 있다. 우리는 모든 피지컬 메모리를 고려하고 있으며, 특히 평균적으로 전체 메모리의 절반을 사용하는 버퍼 캐시를 고려하고 있다. 버퍼 캐시의 용량과 그 중요성 때문에 PAVM 방식은 버퍼 캐시를 고려하지 않고는 완전한 해법이 되지 못한다. 이 논문에서 우리는 메모리의 사용처를 분석하고 저전력 페이지 할당 정책을 제안한다. 특히 프로세스의 주소공간에 매핑(mapping)된 페이지들과 버퍼 캐시가 고려된다. 이 두 종류의 페이지들간의 상호작용과 그 관계를 분석하고 저전력을 위해 이러한 관계를 이용한다.

WLAN 전력제어를 통한 저전력 객체기반 모바일 스토리지 시스템의 설계 (Design of Low-Power Object-based Mobile Storage System by WLAN Power Control)

  • 전영준;최민석;남영진
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 한국컴퓨터종합학술대회논문집 Vol.34 No.1 (B)
    • /
    • pp.441-444
    • /
    • 2007
  • 본 논문에서는 객체기반 IP 스토리지를 이용하여 모바일 기기에서 멀티미디어 콘텐츠 재생에 적합한 저전력 객체기반 모바일 스토리지 시스템 구조를 제안한다. 멀티미디어 콘텐츠의 재생 성능을 높이기 위해 모바일 단말 측 OSD 계층에 버퍼 캐시(buffer cache)와 선반입(prefetch) 기능을 추가한다. 그리고 모바일 단말의 WLAN 전력제어를 통하여 WLAN이 가능한 한 오랜 시간 동안 Sleep 상태 또는 Power Off 상태에 있을 수 있도록 하여 전력의 소비를 줄인다. 본 연구에서는 캐시 및 선반입 기능을 위해 버퍼 캐시관리자(buffer cache manager)와 선반입 관리자(prefetch manager)를 설계하였고, WLAN 전력관리 기능을 위해 WLAN 관리자(WLAN manager)를 설계하였다.

  • PDF

멀티미디어 저장 시스템에서 참조 유형을 고려한 혼성 버퍼 교체 기법 (Hybrid Buffer Replacement Scheme Considering Reference Pattern in Multimedia Storage Systems)

  • 류연승
    • 한국멀티미디어학회논문지
    • /
    • 제5권1호
    • /
    • pp.47-56
    • /
    • 2002
  • 멀티미디어 저장 시스템을 위한 기존의 버퍼 캐시 기법들은 멀티미디어 파일의 순차적 접근만을 고려하고 반복 참조는 고려하지 않고 있다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 멀티미디어 저장 시스템을 위한 새로운 버퍼 교체 기법인 HBM(Hybrid Buffer Management)을 제안한다. 제안한 기법은 응용 수준에서 파일의 참조 유형을 파일 시스템에게 알려주고 HBM이 각 파일에 적절한 버퍼교체 정책을 적용한다. 실험 결과, HBM은 DISTANCE나 LRU와 같은 이전 버퍼 교체 기법보다 캐시 적중률을 높일 수 있음을 알 수 있었다.

  • PDF

비휘발성 메모리 기반 저장장치를 위한 클린 블록 우선 교체 기법의 성능 분석 (Performance Analysis is of Clean Block First Replacement Scheme for Non-volatile Memory Based Storage Devices)

  • 양수현;류연승
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.151-154
    • /
    • 2012
  • 최근 차세대 저장장치로서 비휘발생 플래시 메모리 기반 저장장치의 사용이 층가하고 있다. 본 논문에서는 플래시 메모리 기반 저장장치의 특생인 삭제 연산의 문제점을 고려하는 새로운 버퍼 캐시 교체 기법을 연구하였다. 제안한 클린 블록 우선 (Clean Block First) 기법은 버퍼를 플래시 메모리의 삭제 블록의 리스트로 관리하고 클린 페이지를 가진 블록을 우선적으로 교체하여 플래시 메모리의 삭제 연산 횟수를 줄인다. 트레이스 기반의 시뮬레이션을 수행하여 교체를 위해 검색하는 클린 블록 개수의 변화에 대한 캐시 적중률과 삭제 연산 횟수를 분석하였다.

플래시 메모리 성능향상을 위한 핫 페이지 관리 기법을 이용한 버퍼교체 정책 (A Buffer Replacement Policy using Hot Page Management Scheme for Improving Performance of Flash Memory)

  • 김대영;김정한;조현진;엄영익
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 추계학술발표대회
    • /
    • pp.860-863
    • /
    • 2008
  • 플래시 메모리는 우리 생활에 널리 사용되고 있는 휴대용 저장장치 중의 하나이다. 빠른 입출력 속도와 저전력, 무소음, 작은 크기 등의 장점을 가지나 덮어쓰기가 불가능하고 읽기/쓰기의 속도에 비해 소거 연산의 속도가 매우 느리다는 단점이 있다. 이를 보완하기 위해, 호스트와 플래시 메모리 사이에 버퍼 캐시를 두어 사용하고 있으며, 버퍼 캐시에 사용되는 교체 정책에 따라 플래시 메모리 장치의 성능이 크게 영향을 받는다. 본 논문에서는 블록 단위의 LRU 기법의 단점을 개선한 HPLRU 기법을 제안한다. HPLRU 기법은 최근에 자주 참조되었던 페이지인 핫 페이지 들을 모아 리스트를 만들어 관리하고, 이를 통해 페이지 적중률을 향상시키고 다른 페이지들로 인해 핫 페이지들이 소거되는 현상을 개선하였다. 이 알고리즘은 임의 데이터 패턴에 좋은 성능을 보이며 쓰기 발생 횟수를 많이 감소시키는 결과를 보였다.

NIO를 이용한 범용 웹 캐시 구현 (General Web Cache Implementation Using NIO)

  • 이철희;신용현
    • 한국항행학회논문지
    • /
    • 제20권1호
    • /
    • pp.79-85
    • /
    • 2016
  • 최근의 웹 환경은 스마트폰과 같은 모바일, 페이스북과 같은 소셜 네트워크의 증가로 인하여 네트워크의 트래픽이 급격히 증가하고 있다. 본 논문에서는 WAS(web application server)의 애플리케이션에서 기존 자바의 단점인 I/O의 블로킹(blocking)과 버퍼에 가비지 컬렉션 (garbage collection)으로 인한 CPU 성능 감소 등의 문제를 NIO (non-blocking IO)의 다이렉트 버퍼와 DMA (direct memory access)를 이용하여 기존 시스템의 웹 응답 속도를 향상시켰다. 우선순위 변동 등으로 상대적으로 데이터 순환이 많은 키값은 조작이 용이한 해시맵에 담아 캐시 우선순위 변경 알고리즘을 적용한다. 용량이 큰 응답 데이터는 속도가 빠른 다이렉트 버퍼에 분리 저장하여 성능을 높인다. 캐시 적중 시와 적중이 안 될 경우의 여러 상황에서의 실험을 통해 본 논문에서 제안한 NIO를 이용한 방법이 많은 성능 향상을 보여줌을 확인할 수 있다.

영속 메모리를 이용한 스마트폰 버퍼 캐시의 선별적 플러시 정책 (Policy for Selective Flushing of Smartphone Buffer Cache using Persistent Memory)

  • 임수정;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.71-76
    • /
    • 2022
  • 버퍼 캐시는 스토리지의 느린 속도를 완충하는 중요한 역할을 하지만, 데이터의 유실을 막기 위한 주기적인 플러시 연산으로 인해 스마트폰에서 그 효과가 크게 떨어진다. 본 논문에서는 소량의 영속 메모리에 선택적인 플러시 정책을 적용하여 스마트폰 버퍼 캐시의 플러시 오버헤드를 크게 줄일 수 있음을 보인다. 이는 스마트폰 앱의 I/O 분석 결과 대부분의 파일 쓰기가 소량의 핫 데이터에 집중돼 있는 반면 상당 부분의 파일 데이터는 1회성 쓰기에 국한한다는 점에 근거한다. 제안하는 기법은 플러시 상황 발생 시 자주 수정되는 데이터를 영속 메모리로 우회 플러시하고 그렇지 않은 데이터만을 스토리지로 플러시한다. 이를 통해 스토리지 쓰기량을 크게 줄이는 동시에 영속 메모리의 공간 효율성을 높인다. 인기 있는 스마트폰 앱의 I/O 트레이스를 이용한 재현 실험을 통해 제안하는 기법이 스토리지 쓰기량을 평균 25.8%, 최대 37.8%까지 줄임을 보인다.

딥러닝의 파일 입출력을 위한 버퍼캐시 성능 개선 연구 (A Study on Improvement of Buffer Cache Performance for File I/O in Deep Learning)

  • 이정하;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권2호
    • /
    • pp.93-98
    • /
    • 2024
  • 인공지능과 고성능 컴퓨팅 기술이 급속히 발전하면서 다양한 분야에 딥러닝 기술이 활용되고 있다. 딥러닝은 학습 과정에서 대량의 데이터를 무작위로 읽어 학습을 진행하고, 이 과정을 반복한다. 많은 수의 파일들이 무작위로 반복 참조되는 딥러닝의 파일 입출력은 시간적 지역성을 지닌 일반적인 응용과는 다른 특징을 보인다. 이로 인한 캐싱의 어려움을 극복하기 위해 본 연구에서는 딥러닝 데이터셋 읽기의 무작위성을 줄이고 기존의 버퍼 캐시 알고리즘에 적응적으로 동작하는 새로운 데이터 읽기 방안을 제안한다. 본 논문에서는 실험을 통해 제안하는 방식이 버퍼 캐시의 미스율을 기존의 방식에 비해 평균 16%, 최대 33% 감소시키고, 수행시간을 24%까지 개선함을 보인다.