• 제목/요약/키워드: file I/O cache

검색결과 29건 처리시간 0.026초

CPC: A File I/O Cache Management Policy for Compute-Bound Workloads

  • Bahn, Hyokyung
    • International journal of advanced smart convergence
    • /
    • 제11권2호
    • /
    • pp.1-6
    • /
    • 2022
  • With the emergence of the new era of the 4th industrial revolution, compute-bound workloads with large memory footprint like big data processing increase dramatically. Even in such compute-bound workloads, however, we observe bulky I/Os while loading big data from storage to memory. Although file I/O cache plays a role of accelerating the performance of storage I/O, we found out that the cache hit rate in such environments is not improved even though we increase the file I/O cache capacity because of some special I/O references generated by compute-bound workloads. To cope with this situation, we propose a new file I/O cache management policy that improves the cache hit rate for compute-bound workloads significantly. Trace-driven simulations by replaying file I/O reference logs of compute-bound workloads show that the proposed cache management policy improves the cache hit rate compared to the well-acknowledged CLOCK algorithm by a large margin.

메모리 파일 시스템 기반 고성능 메모리 맵 파일 입출력을 위한 매핑 캐시 (Mapping Cache for High-Performance Memory Mapped File I/O in Memory File Systems)

  • 김지원;최정식;한환수
    • 정보과학회 논문지
    • /
    • 제43권5호
    • /
    • pp.524-530
    • /
    • 2016
  • 기존보다 데이터를 빠르게 접근하기 위한 노력과 비-휘발성 메모리의 발전은 메모리 파일 시스템 연구에 큰 기여를 해왔다. 메모리 파일 시스템은 파일 입출력의 고성능을 위해서 기존에 사용하는 읽기-쓰기 입출력보다 오버헤드가 적은 메모리 맵 파일 입출력을 사용하도록 제안하고 있다. 하지만 메모리 맵 파일 입출력을 사용하게 되면서 페이지 테이블을 구축할 때 발생하는 오버헤드가 전체 입출력 성능의 큰 부분을 차지하게 되었다. 또한 같은 파일이 반복적으로 접근될 때마다 페이지 테이블을 매번 삭제하기 때문에, 오버헤드가 불필요하게 중복되어서 발생한다는 점을 발견했다. 본 논문이 제안하는 매핑 캐시는 이러한 중복되는 오버헤드를 제거하기 위해서, 매핑이 해제될 때 파일의 페이지 테이블을 제거하지 않고 저장하고 있다가 다시 접근될 때 이를 재활용할 수 있도록 고안한 기법이다. 매핑 캐시는 기존 파일 입출력 성능보다 2.8배, 그리고 웹서버 전체 성능보다 12% 향상을 보였다.

렌더링 시스템을 위한 버퍼캐쉬 관리기법 (Management Technique of Buffer Cache for Rendering Systems)

  • 신동희;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.155-160
    • /
    • 2018
  • 본 논문에서는 범용 시스템에서 널리 사용되는 버퍼캐쉬가 렌더링 소프트웨어 수행시 비효율적으로 동작한다는 것을 분석하고 이를 해결하는 렌더링 시스템용 버퍼캐쉬 관리 기법을 제안한다. 이를 위해 본 논문은 먼저 다양한 렌더링 파일 입출력 트레이스를 추출하여 렌더링의 고유한 입출력 패턴을 분석하였다. 그 결과 렌더링 파일 입출력은 주기가 긴 반복참조와 주기가 짧은 반복참조, 임의참조, 그리고 1회성 쓰기참조로 구성된다는 것을 발견하였다. 본 논문은 이러한 렌더링의 파일참조 특성을 고려하여 버퍼캐쉬 공간을 참조별로 할당하고 그에 맞는 관리 기법을 제안하여 기존 버퍼캐쉬 대비 평균 19%, 최대 55%의 성능을 개선시켰다.

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

내장형 시스템에서 암호화 파일 시스템을 위한 효율적인 암복호화 기법 (An Efficient Encryption/Decryption Approach to Improve the Performance of Cryptographic File System in Embedded System)

  • 허준영;박재민;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권2호
    • /
    • pp.66-74
    • /
    • 2008
  • 내장형 시스템은 민감한 데이타를 다루고 저장하기 때문에 정보를 암호화하여 보호하는 암호화 파일 시스템이 필요하지만, 암호화 파일 시스템 적용은 성능 저하가 크기 때문에 내장형 시스템에는 널리 적용되지 못하였다. 기존의 암호화 파일 시스템은 시스템 구조상 불필요한 성능저하를 가져온다. 본 논문에서 제안하는 ISEA(Indexed and Separated Encryption Approach)는 이러한 불필요한 성능 저하를 제거하고, 시스템이 효율적으로 암복호화를 지원하는 새로운 암복호화 기법이다. ISEA는 암호화와 복호화를 페이지 캐쉬를 기준으로 서로 다른 계층에서 수행한다. 즉, 암호화는 페이지 캐쉬 하위 계층에서 수행하고 복호화는 페이지 캐쉬 상위 계층에서 수행한다. 복호화한 내용은 페이지 캐쉬에 저장하여 후속 I/O 요구에 사용할 수 있게 한다. 또한, ISEA는 페이지를 암호화 블록 단위로 나누어 관리하는 페이지 인덱싱 기법을 제공한다. 페이지 인덱싱은 필요에 따라 페이지를 부분적으로 복호화하여 불필요한 복호화 연산을 제거한다. 페이지 캐쉬 탐색 성공률과 읽기/쓰기 사이즈를 종합한 성능 평가에서 ISEA는 효율적인 성능개선을 보여준다.

영속 메모리를 이용한 스마트폰 버퍼 캐시의 선별적 플러시 정책 (Policy for Selective Flushing of Smartphone Buffer Cache using Persistent Memory)

  • 임수정;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.71-76
    • /
    • 2022
  • 버퍼 캐시는 스토리지의 느린 속도를 완충하는 중요한 역할을 하지만, 데이터의 유실을 막기 위한 주기적인 플러시 연산으로 인해 스마트폰에서 그 효과가 크게 떨어진다. 본 논문에서는 소량의 영속 메모리에 선택적인 플러시 정책을 적용하여 스마트폰 버퍼 캐시의 플러시 오버헤드를 크게 줄일 수 있음을 보인다. 이는 스마트폰 앱의 I/O 분석 결과 대부분의 파일 쓰기가 소량의 핫 데이터에 집중돼 있는 반면 상당 부분의 파일 데이터는 1회성 쓰기에 국한한다는 점에 근거한다. 제안하는 기법은 플러시 상황 발생 시 자주 수정되는 데이터를 영속 메모리로 우회 플러시하고 그렇지 않은 데이터만을 스토리지로 플러시한다. 이를 통해 스토리지 쓰기량을 크게 줄이는 동시에 영속 메모리의 공간 효율성을 높인다. 인기 있는 스마트폰 앱의 I/O 트레이스를 이용한 재현 실험을 통해 제안하는 기법이 스토리지 쓰기량을 평균 25.8%, 최대 37.8%까지 줄임을 보인다.

파일 접근 패턴과 캐쉬 영역을 고려한 선반입 기법 (Prefetching Policy based on File Acess Pattern and Cache Area)

  • 임재덕;황보준형;고광식;서대화
    • 정보처리학회논문지A
    • /
    • 제8A권4호
    • /
    • pp.447-454
    • /
    • 2001
  • 디스크 I/O성능 개선을 위한 여러 선반입 알고리즘이 연구되어져 왔다. 선반입 알고리즘은 디스크 접근 횟수를 줄임으로써 병렬파일시스템의 I/O성능을 높여준다. 본 논문에서는 OBA 선반입 기법의 확장 버전인 AMBA 선반입 기법을 제안한다. AMBA 선반입 기법은 현재 사용되고 있는 다음 블록 하나만 선반입하는 것이 아니라, 디스크의 대역폭이 충분하다면 여러 파일 블록을 연속해서 선반입 하는 방법이다. 이는 응용프로그램에서의 데이터 요청이 빈번해도 이전에 연속해서 선반입한 파일 블록에 의해 선반입 효과를 기대할 수 있다. 그리고 버퍼캐쉬 영역 내에 선반입된 파일 블록의 수를 제한함으로써 버퍼캐쉬의 효율성을 높여준다. 제안된 선반입 기법은 리눅스 운영체제 기반의 사용자 수준의 파일 시스템에서 구현하고 실험하였다. 실험 결과 제안된 AMBA 선반입 기법은 순차적으로 접근되는 큰 파일에 대해서는 기존 시스템에 비해 30∼40%의 성능을 개선해준다.

  • PDF

UBIFS 메모리 할당에 관한 I/O 성능 분석 (I/O Performance Analysis about Memory Allocation of the UBIFS)

  • 이재강;오세진;정경호;윤태진;안광선
    • 한국산업정보학회논문지
    • /
    • 제18권4호
    • /
    • pp.9-18
    • /
    • 2013
  • 플래시 메모리는 비휘발성, 저전력, 빠른 입출력, 충격에 강함 등과 같은 많은 장점으로 스마트 기기 및 임베디드 시스템의 저장매체로 많이 사용되고 있다. 낸드(NAND) 플래시에 사용되는 파일시스템(File System)은 대표적으로 YAFFS2, JFFS2, UBIFS 등이 있다. 본 논문에서는 최근 리눅스 커널에 포함된 UBIFS 파일시스템에 메모리 할당을 달리하여 I/O 성능을 실험한다. 제안한 I/O 성능 분석은 순차접근 방법과 랜덤접근으로 분류하고, 메모리 할당은 kmalloc(), vmalloc(), kmem_cache()를 사용하여 6가지 유형으로 나누어 실험하였다. 실험을 통하여 6가지 유형 중 UBI 서브시스템과 UBIFS에 vmalloc()과 kmalloc()을 적용한 2번째 유형이 순차읽기 12.45%, 순차다시쓰기 11.23%의 빠른 성능을 보였으며 랜덤 읽기에는 7.82% 랜덤 쓰기에서는 6.90%의 성능 향상을 보였다.

웹 프락시 서버의 디스크 I/O 성능 평가 (Performance Evaluation of Disk I/O for Web Proxy Servers)

  • 심종익
    • 정보처리학회논문지C
    • /
    • 제12C권4호
    • /
    • pp.603-608
    • /
    • 2005
  • 웹 프락시 서버에서 디스크 I/O는 병목현상을 일으키는 주요 요소이다. 오늘날 대부분의 웹 프락시 서버는 범용 파일 시스템에서 실행되도록 설계되어 있다. 그러나 범용 파일 시스템은 웹 캐시 워크로드에서 대부분 차지하는 작은 파일들을 효과적으로 처리하지 못하기 때문에 전체 웹 프락시 서버의 성능을 저하시키게 한다. 본 논문에서는 범용 파일 시스템을 사용하지 않는 원시(raw) 디스크 I/O 기법이 웹 프락시 서버의 디스크 I/O 오버헤드 개선에 얼마나 영향을 미치는지 그 성능 잠재력을 평가한다. 이를 위해 웹 프락시 서버를 위한 저장관리 시스템인 BSMS(Block-structured Storage Management System)를 설계하고 Squid 소스에 적용시켜 웹 프락시 서버를 구현하였다. 다양한 실험 평가를 통해 원시 디스크 I/O 기법이 웹 프락시 서버에서 디스크 I/O의 성능을 크게 개선시키는 좋은 방법임을 보였다.

스트리밍 미디어 캐슁을 위한 사용자 수준 화일 시스템 (A User-Level File System for Streaming Media Caching)

  • 오재학;차호정
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권8호
    • /
    • pp.472-483
    • /
    • 2002
  • 본 논문에서는 스트리밍 미디어의 효율적인 캐슁과 재전송을 목적으로 범용 화일 시스템에 기반한 사용자 수준의 스트리밍 미디어 캐쉬 화일 시스템(umcFS)을 설계하고 구현하였다. umcFS는 범용화일 시스템의 저장역을 선점하는 화일 디스크에 기반한다. 화일 디스크는 캐쉬 블럭의 물리적인 연속성을 확보하여 효율적인 캐쉬 입출력 시스템을 구성하는 가상 디스크이다. umcFS 구조는 큰 캐쉬 블럭 구조와 제어블럭의 정적 할당을 기본 정책으로 유닉스 화일 시스템과 비교되는 확장된 1차 간접 블럭 참조를 통해서 캐쉬 블럭을 관리한다. 또한 사용자 수준의 라이브러리로 개발되어 시스템 간에 이식성과 확장성이 우수하고 개발 기간이 짧은 장점이 있다. umcFS의 구현을 통해 umcFS의 저수준과 API 수준의 입출력 성능을 비교 분석하였다. 1024KB의 적정 캐쉬 블럭 크기에 대한 임의 입출력 실험 결과, umcFS가 화일 블럭 캐쉬에 비해 약 13%의 성능 향상을 보임을 알 수 있었다.