• Title/Summary/Keyword: 캐시 데이터

Search Result 256, Processing Time 0.029 seconds

Performance Evaluation of Multimedia Streaming System with Linux Virtual Cache Sewer (리눅스 가상 캐시 서버를 이용한 멀티미디어 스트리밍 시스템의 성능평가)

  • 윤상용;윤창일;이용우
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10e
    • /
    • pp.559-561
    • /
    • 2002
  • 고용량 멀티미디어 데이터의 사용 증가와 인터넷 사용 인구의 폭발적인 증가로 현재의 네트워크 인프라로는 사용자의 요구를 충분히 수용하지 못하고 있는 상황이다. 이러한 문제를 해결하기 위해 제시된 웹캐싱 기술도 캐시 서버에 부하가 집중될 때에 지속적인 서비스를 해 주는 것이 불가능한 경우가 발생한다. 본 논문에서는 여러 대의 캐시 서버를 다양한 형태의 가상 캐시 서버로 구축하여 캐시 서버 한 대에 집중되는 부하를 분산하는 방안에 대해서 연구하였다. 이를 위하여 가상 캐시 서버 시스템을 다양한 구성 방식과 알고리즘에 따라 구축하고 성능을 평가하였다. 이런 과정을 거쳐서 멀티미디어 데이터의 스트리밍 서비스에 가장 적합한 구성 및 알고리즘을 제시하였다.

  • PDF

Efficient Caching Technique in iSCSI-based Network (iSCSI 기반 네트워크 환경에서의 효율적인 캐싱 기법)

  • Cho, Kuk-Pyo;Lim, Hyo-Taek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.11b
    • /
    • pp.927-930
    • /
    • 2003
  • iSCSI 기반의 원격 스토리지 시스템에 대한 관심이 증가하면서 이에 대한 연구가 활발히 진행되고 있다. IP 네트워크를 사용하여 통신하는 iSCSI 는 기존의 IP 네트워크의 많은 문제점을 가지고 있다. IP 네트워크를 사용하는 웹 역시 많은 문제점을 가지고 있으며 이를 해결하기 위해 프락시라는 메커니즘을 사용하였다. 효율적인 네트워크 대역폭 사용을 위해 설계된 프록시는 응답속도를 줄이는데 가장 효과적으로 많이 채택되었다. 그러나, 캐시에 저장된 데이터를 사용자에게 제공하기 때문에 이미 캐시되어진 자료가 웹 서버의 최신 자료와 다를 가능성이 있으며 또한 캐시되어진 데이터에 대한 유효성을 검사하기 때문에 추가의 지연시간이 발생하게 된다. 본 논문에서는 iSCSI 기반의 네트워크에서 캐시되어진 데이터에 대한 유효성 검사 없이 항상 fresh 한 상태의 캐시 데이터를 사용자에게 제공할 수 있는 캐싱 기법에 대한 내용과 이것을 적용한 캐시 스토리지 시스템 설계 및 기존의 원격 스토리지 시스템과의 성능을 비교 분석한 내용을 기술한다.

  • PDF

Group-based Cache Sharing Scheme Considering Peer Connectivity in Mobile P2P Networks (모바일 P2P 네트워크에서 피어의 연결성을 고려한 그룹 기반 캐시 공유 기법)

  • Kim, Jaegu;Yoon, Sooyong;Lim, Jongtae;Lee, Seokhee;Bok, Kyoungsoo;Yoo, Jaesoo
    • The Journal of the Korea Contents Association
    • /
    • v.14 no.10
    • /
    • pp.20-31
    • /
    • 2014
  • Recently, cache sharing methods have been studied in order to effectively reply to user requests in mobile P2P networks. In this paper, we propose a cache sharing scheme based on a cluster considering the peer connectivity in mobile P2P networks. The proposed scheme shares caches by making a cluster that consists of peers preserving the connectivity among them for a long time. The proposed scheme reduces data duplication to efficiently use the cache space in a cluster. The cache space is divided into two parts with a data cache and a temporary cache for a cache space. It is possible to reduce the delay time when the cluster topology is changed or the cache data is replaced utilizing a temporary cache. The proposed scheme checks the caches of peers in a route to a cluster header and the caches of one-hop peers in order to reduce the communication cost. It is shown through performance evaluation that the proposed scheme outperforms the existing schemes.

An Eager Cache Prefetching Scheme Using Stride between Successive Data Reference (M-RPT: 데이터의 주소 간격을 이용한 적극적인 캐시 선인출 방법)

  • 전영숙;문현주;전중남;김석일
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.217-219
    • /
    • 2003
  • 멀티미디어 응용 프로그램은 방대한 양의 데이터를 실시간으로 고속 처리해야 한다. 적재/저장과 같은 메모리 참조 명령어는 프로세서의 고속 수행에 방해가 되는 주요인이다. 본 논문에서는 메모리 참조 속도를 향상시키기 위해 멀티미디어 데이터의 주소간격이 규칙적으로 참조되는 특성을 활용하여 다음에 참조될 데이터를 미리 캐시로 선인출 함으로써 실행시 캐시 미스율을 줄이고 또한 전체 수행시간을 줄이는 효과적인 방법을 제안한다. 제안한 방법은 캐시 미스율을 줄이는 방법으로서 데이터 선인출 기법을 사용하는데 주소간격을 이동한 기존 연구들에 비해 캐시 미스율에 있어서 평균적으로 27%향상되었다.

  • PDF

An Efficient Cache Management Scheme for Load Balancing in Distributed Environments with Different Memory Sizes (상이한 메모리 크기를 가지는 분산 환경에서 부하 분산을 위한 캐시 관리 기법)

  • Choi, Kitae;Yoon, Sangwon;Park, Jaeyeol;Lim, Jongtae;Lee, Seokhee;Bok, Kyoungsoo;Yoo, Jaesoo
    • KIISE Transactions on Computing Practices
    • /
    • v.21 no.8
    • /
    • pp.543-548
    • /
    • 2015
  • Recently, volume of data has been growing dramatically along with the growth of social media and digital devices. However, the existing disk-based distributed file systems have limits to their performance of data processing or data access, due to I/O processing costs and bottlenecks. To solve this problem, the caching technique is being used to manage data in the memory. In this paper, we propose a cache management scheme to handle load balancing in a distributed memory environment. The proposed scheme distributes the data according to the memory size, n distributed environments with different memory sizes. If overloaded nodes occur, it redistributes the the access time of the caching data. In order to show the superiority of the proposed scheme, we compare it with an existing distributed cache management scheme through performance evaluation.

Refreshing technique based on reference period and update period (접근 주기와 실제 갱신 주기에 기초한 리프레싱 기법)

  • 김인태;김기창
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10a
    • /
    • pp.512-514
    • /
    • 1998
  • 요약 최근 들어 인터넷 데이터를 사용자와 가까운 위치 복사해 놓음으로써 인터넷 병목현상을 줄이는 인터넷 캐시 서버의 사용이 증가되고 있다. 캐시 서버의 성능은 캐시 적중률과 캐시된 데이터의 신선도에 의해 좌우된다고 할 수 있다. 데이터의 신선도는 캐싱된 데이터가 가장 최근에 갱신된 데이터와 일치할 확률이다. 신선도 유지를 위해 가장 많이 사용되고 있는 방법은 데이터마다 만료시간을 부여하여 만료시간이 지났을 때 새로운 데이터를 요청하는 방법이다. 하지만, 적절하지 않은 만료시간의 설정은 네트웍 교통량 증가나 사용자에게 신선하지 않은 데이터를 전달하는 무제가 생긴다. 본 논문에서는 각 데이터의 접근 주기와 실제 갱신주기에 기초하여 그 페이지의 리프레시 시간을 설정함으로써 요청될 가능성이 높은 페이지들만을 선택하여 프리패칭이 될 수 있도록 하는 기법을 제안한다.

  • PDF

Cache memory system for high performance CPU with 4GHz (4Ghz 고성능 CPU 위한 캐시 메모리 시스템)

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.18 no.2
    • /
    • pp.1-8
    • /
    • 2013
  • TIn this paper, we propose a high performance L1 cache structure on the high clock CPU of 4GHz. The proposed cache memory consists of three parts, i.e., a direct-mapped cache to support fast access time, a two-way set associative buffer to exploit temporal locality, and a buffer-select table. The most recently accessed data is stored in the direct-mapped cache. If a data has a high probability of a repeated reference, when the data is replaced from the direct-mapped cache, the data is selectively stored into the two-way set associative buffer. For the high performance and low power consumption, we propose an one way among two ways set associative buffer is selectively accessed based on the buffer-select table(BST). According to simulation results, Energy $^*$ Delay product can improve about 45%, 70% and 75% compared with a direct mapped cache, a four-way set associative cache, and a victim cache with two times more space respectively.

The low-power cache design for embedded systems (내장형 시스템을 위한 저전력 캐시 설계)

  • Jung, Hoi-Tae;Suh, Hyo-Joong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.05a
    • /
    • pp.532-535
    • /
    • 2008
  • 내장형 시스템에서 캐시 메모리는 시스템의 성능과 전력 소모에 매우 큰 비중을 차지한다. 일반적인 내장형 시스템에 적용되는 집합 연관 구조 캐시는 모든 웨이에 전력을 공급해야 하므로 전력 소모 효율성이 매우 낮다. 이러한 단점을 보완하기 위해 순차 접근 캐시는 데이터가 존재하는 하나의 캐시만 항상 전력을 공급하게 하는 구조를 제안하지만 모든 작업에 1사이클이 더 소모되는 단점을 갖는다. 캐시 웨이 예측 기법은 적중 시 1사이클의 시간에 1개의 웨이에 만 전력을 공급하게 하는 최상의 구조를 갖지만 적중 실패 시 일반적인 집합 연관 구조보다 1사이클이 더 소모되고 똑같은 전력 소비를 가져오는 단점을 갖는다. 본 논문에서는 이 두 구조의 절충안을 통해 데이터 적중 시 웨이 예측 기법과 같은 성능을 가지며 실패 시에도 순차 접근 캐시와 동일한 성능을 보이는 새로운 내장형 시스템을 위한 저전력 캐시 구조를 제안한다.

An Active Prefetch Filtering Schemes using Exclusive Prefetch Cache (선인출 전용 캐시를 이용한 적극적 선인출 필터링 기법)

  • Chon Young-Suk;Kim Suk-il;Jeon Joong-nam
    • The KIPS Transactions:PartA
    • /
    • v.12A no.1 s.91
    • /
    • pp.41-52
    • /
    • 2005
  • Memory reference instruction caused by cache miss is the critical factor that limits the processing power of processor. Cache prefetching technique is an effective way to reduce the latency due to memory access. However, excessively aggressive prefetch leads to cache pollution and finally to cancel out the advantage of prefetch. In this study, an active prefetch filtering scheme is introduced which dynamically decides whether to commence prefetching after referring a filtering table to reduce the cache pollution due to unnecessary prefetches. For the precision filtering, an evicted address referencing scheme has been proposed where the filter directly compares the current prefetch address with previous unnecessary prefetch addresses stored in filtering table. Moreover, a small sized exclusive prefetch cache has been introduced to increase the amount of eviction of unnecessarily prefetched addresses to enhance the accuracy of dynamic filtering. The exclusive prefetch cache also prevents useful demand data from being pushed out by prefetched data, while the evicted address direct referencing scheme enables the prefetch cache to keep most of useful prefetch data within its small size. Experimental results from commonly used general and multimedia benchmarks show that the average cache miss ratio has been decreased by $13.3{\%}$ by virtue of enhanced filtering accuracy compared with conventional schemes.

Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search (데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계)

  • Kim Kwang-jong;Ko Hyun;Kim Young-ja;Lee Yon-sik
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.153-166
    • /
    • 2005
  • Existing single cache structure has shown difference of hit-ratio according to individually replacement strategy However. It needs new improved cache structure for reducing network traffic and providing advanced hit-ratio. Therefore, this Paper design push agent model using dual cache for increasing hit-ratio by reducing server overload and network traffic by repetition request of persistent and identical information. In this model proposes dual cache structure to do achievement replace gradual cache using by two caches storage space for reducing server overload and network traffic. Also, we show new cache replace techniques and algorithms which executes data update and delete based on replace strategy of Log(Size) +LRU, LFU and PLC for effectiveness of data search in cache. And through an experiment, it evaluates Performance of dual cache push agent model.

  • PDF