• Title/Summary/Keyword: 캐시 데이터

Search Result 256, Processing Time 0.026 seconds

SSD based Second Disk Cache Replacement Scheme (SSD 기반 보조 디스크 캐시 교체 기법)

  • Ryu, Yeon-Joong;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2014.07a
    • /
    • pp.343-345
    • /
    • 2014
  • 플래시 메모리의 인기가 증가하면서 스토리지 시스템의 변화를 가져왔다. 플래시 메모리 기반의 SSD(Solid State Disk)는 기존의 HDD(Hard Disk Drive)를 대체할 매체로 주목을 받고 있으며 HDD에 비해 훨씬 더 높은 대역폭, 랜덤 접근 성능 및 충격에 강한 장점들을 갖는다. 그러나 플래시 메모리는 HDD와 달리 덮어쓰기(In-Place update)가 불가능 하기 때문에, 데이터를 업데이트 하기 위해서는 해당영역을 지운 후 업데이트를 해야 하는 단점이 있다. 본 논문에서는 캐시 안에서의 거의 접근하지 않을 블락과 캐시로 들어가는 것을 막기 위한 기법을 제시한다. 이것은 캐시의 오염을 막고 더 오랜 기간 동안 캐시 안에서 인기 있는 블락 들을 유지하고 높은 히트율로 연결될 것이다. 또한 캐시 교체의 수를 줄임으로써 SSD의 쓰기를 감소할 것이고 그 결과 성능 뿐만 아니라 SSD의 수명도 연장 에도 도움이 될 것이다.

  • PDF

Enhancing Distributed File System Performance Using SSD Cache (SSD 캐시를 이용한 분산파일시스템의 성능 향상)

  • Kim, Chei-Yol;Park, Jeong-Sook;Kim, Young-Chang;Kim, Young-Kyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.83-86
    • /
    • 2014
  • 분산 파일시스템의 클라이언트 측에 SSD 장치를 캐시장치로 사용하여 분산파일시스템에 부족한 랜덤 입출력 성능을 향상시키고, Back-end 데이터 서버의 부하를 줄일 수 있다. 본 논문은 국내에서 개발된 분산파일시스템인 MAHA-FS의 클라이언트 측에 읽기 캐시로 SSD 장치를 지원함으로써 캐시 히트시에 읽기 성능을 향상 시킬 수 있음과 더불어 읽기 캐시의 기능 추가로 인한 쓰기 성능의 저하가 없음을 보여준다. 본 논문에서 제안한 SSD 캐시를 이용하여 분산파일시스템의 활용 분야을 넓힐 수 있을 것으로 기대한다.

Cooperative Cache Replacement Policy based on Object Size in Mobile P2P Environment (모바일 P2P 환경에서 객체 크기 기반의 협력적인 캐시 교체 정책)

  • Park Kyo-Sung;Song Jin-Woo;Yang Sung-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.1135-1138
    • /
    • 2006
  • 최근 모바일 환경에서의 P2P 협력적인 캐싱 기술에 대한 연구가 활발히 이루어지고 있다. 모바일 P2P 협력적인 캐싱이란 객체를 요청한 피어의 전파 범위 안에 있는 다른 피어들을 찾아 원하는 데이터가 있는지 살펴본 후 원하는 데이터가 주변 피어에 없을 때에만 서버에 요청을 보내는 방식으로 데이터 탐색 성능 개선과 제한된 피어의 저장 공간을 효율적으로 이용할 수 있는 장점이 있다. 본 논문에서는 모바일 P2P 네트워크 환경에서 이동성을 가진 피어의 저장 공간을 효과적으로 이용하기 위한 객체 크기 기반 P2P 협력적인 캐시 교체 정책을 제안하고자 한다. 가까운 위치 좌표를 가진 피어들을 하나의 그룹으로 묶은 그룹 기반의 모델링 환경에서 객체의 크기에 따른 캐시 교체 정책을 실제 웹 로그 트레이스에 적용하여 실험하였다. 실험 결과, 제안하는 교체 정책이 기존의 교체 정책들과 비교하여 더 우수한 성능을 보였다.

  • PDF

A Timestamp Tree-based Cache Invalidation Report Scheme in Mobile Environments (모바일 환경에서의 타임스템프 트리 기반 캐시 무효화 보고 구조)

  • 이학주;정성원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.55-57
    • /
    • 2004
  • 이동 컴퓨팅(Mo띠le Computing) 환경에서 빈번한 접속 단절은 클라이언트의 캐시 일관성(Consistency) 문제로 직결된다. 본 논문에서는 이를 해결하기 일한 무효화 보고(Invalidation Report. In)중 하나를 제시한다. 기존의 IR방식은 대량의 데이터와 빈번한 데이터의 갱신(Update)시 IR 길이의 증기폭이 상당히 크다. 이는 타임스탬프가 IR에서 차지하는 비중이 큼으로써 오는 현상이다. 또한 기존방식은 캐시 레벨의 선택적 청취(Selective tuning)를 지원하지 못하는 문제점을 가지오 있다. 이러한 점을 극복하고자 B+Tree를 기반으로 시간 값을 구성하고 이에 따른 데이터 아이디를 재구성하는 IR방식을 제안한다. 이를 활용하면 각 클라이언트가 자신의 단절(Disconnect)된 시간에 맞는 갱신 정보를 확인할 수 있게 된다. 이러한 방법은 기존 IR의 단점을 보완하며 선택적 청취론 유도할 수 있는 효과적인 방법이다.

  • PDF

A Study on Performance and Area Comparison according to cache replacement policy (캐시 교체 정책에 따른 성능 및 면적 비교 연구)

  • Sang-Won Jo;Hyunjin Park
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1127-1128
    • /
    • 2023
  • 캐시는 현대 컴퓨터 시스템에서 중요한 성능 개선 요소 중 하나로, 효율적인 데이터 저장 및 액세스를 보장한다. 교체 정책은 캐시의 한정된 용량 내에서 어떤 데이터를 보관하고 어떤 데이터를 대체할지 결정하는 데 중요한 역할을 한다. 이 논문은 Pseudo LRU 와 LRU 교체 정책을 대상으로 cache 에서의 throughput 과 gate count 를 각각 비교한다. LRU 방식을 적용한 cache 와 Pseudo LRU 방식을 적용한 cache 는 Locality 0 과 100 에서 0.001GB/s 미만의 차이를 보이며 각각 0.095GB/s, 0.211GB/s 로 동일했으며 Gate Count 는 각각 134,516 과 130,016 으로 4500 의 감소 효과가 있었다.

Improving Periodic Flush Overhead of File Systems Using Non-volatile Buffer Cache (비휘발성 버퍼 캐시를 이용한 파일 시스템의 주기적인 flush 오버헤드 개선)

  • Lee, Eunji;Kang, Hyojung;Koh, Kern;Bahn, Hyokyung
    • Journal of KIISE
    • /
    • v.41 no.11
    • /
    • pp.878-884
    • /
    • 2014
  • File I/O buffer cache plays an important role in narrowing the wide speed gap between the main memory and the secondary storage. However, data loss or inconsistencies may occur if the system crashes before the data that has been updated in the buffer cache is flushed to storage. Thus, most operating systems adopt a daemon that periodically flushes dirty data to the secondary storage. In this study, we show that periodic flushes account for 30-70% of the total write traffic to storage and remove this inefficiency by implementing a small, non-volatile buffer cache. Specifically, we present space-efficient management techniques, such as delta-write and fragment-grouping, and show that the storage write traffic and throughput can be improved by a margin of 44.2% and 23.6%, respectively, with only a small NVRAM.

Energy-efficient Set-associative Cache Using Bi-mode Way-selector (에너지 효율이 높은 이중웨이선택형 연관사상캐시)

  • Lee, Sungjae;Kang, Jinku;Lee, Juho;Youn, Jiyong;Lee, Inhwan
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.1 no.1
    • /
    • pp.1-10
    • /
    • 2012
  • The way-lookup cache and the way-tracking cache are considered to be the most energy-efficient when used for level 1 and level 2 caches, respectively. This paper proposes an energy-efficient set-associative cache using the bi-mode way-selector that combines the way selecting techniques of the way-tracking cache and the way-lookup cache. The simulation results using an Alpha 21264-based system show that the bi-mode way-selecting L1 instruction cache consumes 27.57% of the energy consumed by the conventional set-associative cache and that it is as energy-efficient as the way-lookup cache when used for L1 instruction cache. The bi-mode way-selecting L1 data cache consumes 28.42% of the energy consumed by the conventional set-associative cache, which means that it is more energy-efficient than the way-lookup cache by 15.54% when used for L1 data cache. The bi-mode way-selecting L2 cache consumes 15.41% of the energy consumed by the conventional set-associative cache, which means that it is more energy-efficient than the way-tracking cache by 16.16% when used for unified L2 cache. These results show that the proposed cache can provide the best level of energy-efficiency regardless of the cache level.

Cache Replacement and Coherence Policies Depending on Data Significance in Mobile Computing Environments (모바일 컴퓨팅 환경에서 데이터의 중요도에 기반한 캐시 교체와 일관성 유지)

  • Kim, Sam-Geun;Kim, Hyung-Ho;Ahn, Jae-Geun
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.36 no.2A
    • /
    • pp.149-159
    • /
    • 2011
  • Recently, mobile computing environments are becoming rapidly common. This trend emphasizes the necessity of accessing database systems on fixed networks from mobile platforms via wireless networks. However, it is not an appropriate way that applies the database access methods for traditional computing environments to mobile computing environments because of their essential restrictions. This paper suggests a new agent-based mobile database access model and also two functions calculating data significance scores to choose suitable data items for cache replacement and coherence policies. These functions synthetically reflect access term, access frequency and tendency, update frequency and tendency, and data item size distribution. As the result of simulation experiment, our policies outperform LRU, LIX, and SAIU policies in aspects of decrement of access latency, improvement of cache byte hit ratio, and decrease of cache byte pollution ratio.

An Improved Load Balancing for Proxy Caching in a Wireless Internet Proxy Server Cluster Environment (무선인터넷 프록시 서버 클러스터 환경에서 프록시 캐싱을 위한 향상된 부하 분산에 대한 연구)

  • Hwang, Jae-Hoon;Kwak, Hu-Keun;Chung, Kyu-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.256-258
    • /
    • 2005
  • 현대 사회에서 무선 인터넷의 활용 분야가 날로 확대되어 가고 있으나 낮은 대역폭, 단말기 해상도의 다양성 등의 여러 가지 근본적인 문제들을 가지고 있다. 이러한 문제를 해결하기 위하여 무선인터넷 프록시 서버를 사용하며, 데이터에 대한 압축과 캐싱 방법을 사용한다. 캐싱 관점에서 해시의 사용은 캐시의 히트율(Hit ratio)을 높이며, 캐시간 협동성(Cooperative Caching)도 가지게 한다. 그러나 기존의 해시기반 스케줄링 알고리즘에서 사용자의 요청이 균등하게 분배되지 못하고 일부 서버로 몰리는 문제점을 가지고 있다. 본 논문에서는 해시 테이블을 이용한 라운드로빈 방식과 캐시 이용률을 이용한 스케줄링 방식을 제안하여, 캐시간 협동성과 사용자의 요청을 고르게 분포 시키도륵 하였다. 16대의 컴퓨터를 이용하여 실험을 수행하였고, 실험결과를 통해 제안된 방식이 기존 방식보다 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 향상됨을 확인하였다.

  • PDF

Searching Narrow Values of Cache Memory for Yield-Aware Cache Design under Process Variation (공정 변이 조건 하의 수율 인식 캐시 설계를 위한 캐시 메모리 내로우 밸류 검색)

  • Jang, Hyung-Beom;Chung, Sung-Woo;Yoon, Sung-Roh
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.456-459
    • /
    • 2008
  • 공정 기술의 발전에 따라 공정 변이 (process variation)에 따른 수율 (yield) 감소 문제가 대두하고 있으며, 공정 변이 대응 설계 기법 (process variation tolerant design technique)은 하드웨어 제작 시 반드시 고려되어야 할 중요한 요소가 되었다. 캐시 메모리 (cache memory)의 경우에도 공정 변이로 인한 수율 감소 문제에 대처할 수 있는 설계 방법의 개발이 절실하다. 본 논문에서는 캐시에 저장되는 데이터의 특성 분석을 통해 공정 변이에 대응할 수 있는 새로운 캐시 구조 설계에 대한 연구를 소개한다.

  • PDF