• Title/Summary/Keyword: 페이지 캐쉬

Search Result 37, Processing Time 0.023 seconds

A Page Cache Mechanism for JFFS2 Flash File System in Embedded Systems (내장형 시스템에서 JFFS2 플래쉬 파일 시스템에 적합한 페이지 캐쉬 구조)

  • 송형근;차호정
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.271-273
    • /
    • 2003
  • 본 논문은 JFFS2 플래쉬 파일 시스템에 적합한 페이지 캐쉬 구조를 제안한다. JFFS2 플래쉬 파일 시스템은 공간활용을 높이기 위해 데이터를 압축 저장하므로 기존 리눅스의 페이지 캐쉬가 효과적으로 사용될 수 있다. 그러나 멀티미디어 파일과 같이 비압축과 순차읽기 특성을 보이는 데이터는 플래쉬 메모리의 빠른 읽기 속도와 낮은 캐쉬적중률로 인해 기존 페이지 캐쉬는 문제점을 보인다. 본 논문에서는 JFFS2 플래쉬 파일 시스템에서 사용하는 리눅스의 페이지 캐쉬를 기술하고 문제점을 분석한다. 그리고 기존 연구에서 제시된 저전력 소모를 위한 페이지 캐쉬 구조에 기반하여 throughput 향상을 위한 페이지 캐쉬 사용 기법을 제시하고 평가한다.

  • PDF

A Selective Usage of Page Cache towards Low-Power Systems (저전력 시스템을 위한 선택적 페이지 캐쉬 사용 기법)

  • 송형근;차호정
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04a
    • /
    • pp.208-210
    • /
    • 2003
  • 본 논문은 내장형 시스템에서 저전력 소모를 위한 선택적 페이지 캐쉬 사용 기법을 제안한다. 내장형 시스템의 저장매체로 널리 사용되고 있는 플래쉬 메모리는 데이터를 압축하여 저장하기 때문에 리눅스에서 사용되는 페이지 캐쉬가 효과적으로 동작한다. 하지만 플래쉬 메모리는 RAM 보다 전력 소모가 적기 때문에 페이지 캐쉬 사용에 따른 빈번한 RAM 접근 횟수는 전력 소모량을 증가시킨다. 따라서 저전력 시스템 운영을 위해서 페이지 캐쉬를 선택적으로 사용하는 것을 제안한다. 리눅스 운영체제상에서 구현된 시스템을 바탕으로 수행속도가 향상되고 전력 소모량이 감소함을 보인다.

  • PDF

An Efficient Encryption/Decryption Approach to Improve the Performance of Cryptographic File System in Embedded System (내장형 시스템에서 암호화 파일 시스템을 위한 효율적인 암복호화 기법)

  • Heo, Jun-Young;Park, Jae-Min;Cho, Yoo-Kun
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.35 no.2
    • /
    • pp.66-74
    • /
    • 2008
  • Since modem embedded systems need to access, manipulate or store sensitive information, it requires being equipped with cryptographic file systems. However, cryptographic file systems result in poor performance so that they have not been widely adapted to embedded systems. Most cryptographic file systems degrade the performance unnecessarily because of system architecture. This paper proposes ISEA (Indexed and Separated Encryption Approach) that supports for encryption/decryption in system architecture and removes redundant performance loss. ISEA carries out encryption and decryption at different layers according to page cache layer. Encryption is carried out at lower layer than page cache layer while decryption at upper layer. ISEA stores the decrypted data in page cache so that it can be reused in followed I/O request without decryption. ISEA provides page-indexing which divides page cache into cipher blocks and manages it by a block. It decrypts pages partially so that it can eliminate unnecessary decryption. In synthesized experiment of read/write with various cache hit rates, it gives results suggesting that ISEA has improved the performance of encryption file system efficiently.

An Efficient Instruction Prefetching Scheme Based on the Page Access Information (페이지 접근 정보에 기반한 효율적인 명령어 캐쉬 선인출 기법)

  • Shin Soong-Hyun;Kim Cheol-Hong;Jhon Chu-Shik
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.5
    • /
    • pp.306-315
    • /
    • 2006
  • In general, the hit ratio of the first level cache is one of the most important factors in determining the performance of computer systems. Prefetching from lower level memory structure is one of the most useful techniques for improving the hit ratio of the first level cache. In this paper, we propose a prefetch on continuous same page access (CSPA) scheme which improves the prefetch efficiency of the instruction cache and reduces prefetch cost at the same time. The proposed CSPA scheme traces the page addresses of executed instructions to count how many times the same memory page is accessed continuously. To increase the prefetch efficiency, the CSPA scheme initiates prefetch only if the number of accesses to the same page exceeds the threshold value. Generally, the size of a L1 cache block is smaller than that of a L2 cache block. Therefore, one L2 cache block contains a number of L1 cache blocks. To reduce the number of unnecessary accesses to the L2 cache due to prefetch, the CSPA scheme enables prefetch only when the missed L1 block and the prefetch L1 block are in the same L2 cache block, leading to reduced prefetch cost. According to our simulations, the proposed prefetching scheme improves the performance by up to 6.7%.

A Modified LRU Page Replacement Policy with LMF for Web Proxy Cache (LMF로 수정된 웹 프락시 캐쉬용 LRU페이지 교체 정책)

  • 이용임;김주균
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.30 no.7_8
    • /
    • pp.426-433
    • /
    • 2003
  • Management policies of Web Proxy Cache, for the QoS of Web users, are mainly focused on the page replacement and the data consistency policy. But the two subjects have been studied independently to each other regardless of its possibility of cooperation. In this paper, we introduce the performance improvement obtained by adapting the characteristic of LMF used in data consistency policy to LRU, thus taking the better performance synergy as a result of complementary cooperation. Various policies for the management of Web Proxy Cache are in progress, this study can be a way of performance guide to increase cache hit ratio and reduce the transmission overhead of Web Server.

A novel page replacement policy associated with ACT-R inspired by human memory retrieval process (인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책)

  • Roh, Hong-Chan;Park, Sang-Hyun
    • The KIPS Transactions:PartD
    • /
    • v.18D no.1
    • /
    • pp.1-8
    • /
    • 2011
  • The cache structure, which is designed for assuring fast accesses to frequently accessed data, resides on the various levels of computer system hierarchies. Many studies on this cache structure have been conducted and thus many page-replacement algorithms have been proposed. Most of page-replacement algorithms are designed on the basis of heuristic methods by using their own criteria such as how recently pages are accessed and how often they are accessed. This data-retrieval process in computer systems is analogous to human memory retrieval process since the retrieval process of human memory depends on frequency and recency of the retrieval events as well. A recent study regarding human memory cognition revealed that the possibility of the retrieval success and the retrieval latency have a strong correlation with the frequency and recency of the previous retrieval events. In this paper, we propose a novel page-replacement algorithm by utilizing the knowledge from the recent research regarding human memory cognition. Through a set of experiments, we demonstrated that our new method presents better hit-ratio than the LRFU algorithm which has been known as the best performing page-replacement algorithm for DBMS caches.

A Cache Coherency Control for B-Tree Indices in a Database Sharing System (데이터베이스 공유 시스템에서 B-트리 인덱스를 위한 캐쉬 일관성 제어)

  • 온경오;조행래
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.36-38
    • /
    • 2000
  • 데이터베이스 공유 시스템(Database Sharing System: DSS)은 고성능 트랜잭션 처리를 위해 다수 개의 컴퓨터를 연동하는 방식으로, 각 노드들은 디스크 계층에서 데이터베이스를 공유한다. DSS에서 각 노드는 빈번한 디스크 액세스를 피하기 위해 최근에 액세스한 데이터 페이지와 인덱스 페이지들을 자신의 지역 메모리 버퍼에 캐싱한다. 이때 노드가 항상 최신의 페이지를 사용할 수 있기 위해서는 지역 버퍼에 캐싱된 페이지들의 일관성을 지원하여야 한다. 본 논문에서는 데이터 페이지에 비해 빈번히 엑세스되는 인덱스 페이지의 정확성을 보장할 수 있는 캐쉬 일관성 제어 기법을 제안한다.

  • PDF

Avoidance-based Cache Consistency Technique on Transaction Processing Using an Asynchronus Write Intention Declaration (비동기적 갱신 의도 선언에 의한 트랜잭션 처리의 회피-기반 캐쉬 일관성 유지 기법)

  • 박용문;이찬섭;최의인
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.107-109
    • /
    • 2000
  • 고속 LAN과 같은 통신 장비의 발달로 클라이언트/서버 시스템 환경이 일반화됨에 따라 데이터베이스 시스템도 클라이언트/서버 환경을 지원하는 데이터 서버로서의 역할이 요구되었다. 또한, 다양하고 복잡한 형태의 제어 시스템들이 필요한 각 응용 분야에서 클라이언트/서버 시스템이 이용되고 있다. 이러한 상황에서 클라이언트들은 통신 비용 절감과 서버의 부하를 줄이기 위해 클라이언트의 버퍼에 데이터의 사본을 캐쉬(cache) 함으로써 클라이언트 시스템의 확장성 및 독립성을 추구한다. 하지만, 캐쉬한 데이터의 사본에 의해 갱신 연산이 수행되기 때문에 캐쉬 데이터의 일관성 유지를 위한 효율적인 방법들이 필요하다. 본 논문에서 제안한 기법은 클라이언트/서버 간의 데이터 전송이 페이지 단위로 행해지는 페이지-서버 환경에서 적용되는 회피-기반(avoidance-based) 기법으로써, 클라이언트가 데이터를 갱신할 때 갱신 의도를 비동기적으로 선언하는 캐위 일관성 유지 기법을 제안하였다. 그리고 제안한 기법과 최근에 제안된 기법들을 비교 분석하였다.

  • PDF

Expected-Cost-based Cache Replacement Algorithm (기대비용기반 캐쉬교체 알고리즘)

  • 이정준;황규영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.240-242
    • /
    • 1999
  • 웹 데이터는 기존의 페이지를 기반으로 한 교체 알고리즘이 고려하지 않은 다양한 데이터 아이템의 크기, 네트워크 밴드위쓰 등으로 인한 다양한 참조 비용과 데이터의 만기시간(expiration time)을 갖는다. 그러나, 기존의 연구에서는 만기시간이 미치는 영향에 대한 연구가 초보적인 수준이다. 본 논문에서는 만기시간이 참조비용에 미치는 영향을 반영한 기대비용기반 캐쉬교체 알고리즘을 제안한다. 제안한 알고리즘은 만기시간내에 참조되어 캐쉬효과를 얻을 확률을 이용하여 참조비용의 기대값을 구하고, 이 값을 비교하여 교체대상을 선정한다. 제안한 알고리즘은 데이터의 크기, 참조비용 뿐만 아니라 만기시간의 영향을 확률적으로 정확히 반영하므로, 기존의 교체 알고리즘보다 우수한 성능을 보인다.

  • PDF

Web Cache Architecture for Audio On Demand (Audio On Demand를 위한 웹캐쉬 구조)

  • 이태원;심마로;배진욱;이석호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.295-297
    • /
    • 1998
  • 인터넷 상에서 AOD나 VOD와 같이 멀티미디어 데이터를 서비tm하는 시스템에서는 같은 자원으로 더 많은 수의 동시 사용자를 지원하는 문제가 중요하다. 기존의 운영체제 캐쉬만을 이용하면 자주 요청되지 않는 곡에 대한 스캔으로 캐쉬에서 페이지 교체가 자주 일어나 버퍼링 효과가 저하되는 현상이 있다. 본 논문에서는 웹캐쉬라는 구조를 통해 과거의 요청 정보로부터 가까운 미래에 다시 요청될 곡들을 예측하고 이 곡들을 웹캐쉬에 유지하여 서비스한다. 이렇게 함으로써 디스크 액세스 횟수를 줄일 수 있고 같은 자원으로 더 많은 동시 사용자를 지원할 수 있다. 가까운 미래에 다시 요청될 곡을 예측하기 위한 방법으로 과거 요청 사이의 시간간격에 가중치를 부여하여 요청이 자주 발생하는 곡들을 판별해 낼 수 있다. 실제로 운영되고 있는 AOD 사이트의 4달간의 요청 자료를 실험 자료로 본 논문에서 주장하는 바를 시뮬레이션하여 높은 성능 향상을 얻은 것을 보였다.