• Title/Summary/Keyword: 캐시 히트율

Search Result 26, Processing Time 0.026 seconds

Adaptive Web Cache Replacement Policy using Dynamic Distribution of Partitions in Proxy Server (동적 공간분배에 의한 적응형 웹캐시 대체정책)

  • 이수행;정진하;최상방
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.643-645
    • /
    • 2001
  • 인터넷이라는 환경이 우리의 생활의 일부로 자리잡으면서, 급속히 늘어난 사용자들의 요구는 그 만큼 네트워크의 현저한 부하증가를 일으키고 네트워크의 성능저하를 유발하며 속도 면에서도 빠른 응답을 원하는 사용자들의 욕구를 충족시키지 못하게 된다. 이에 대한 하나의 대응책이, 프락시 서버를 사용함으로써 네트워크 대역폭을 효과적으로 절약하고 서버 측의 부하를 감소시키며 사용자의 요청에 대한 빠른 응답이 가능하게 하는 것이다. 그러나 프락시 서버는 제한된 캐시용량 때문에 새 개체를 위한 공간확보를 위해 기존 개체를 제거해야 하는데, 캐시의 성능을 최대화하도록 하는 효율적인 캐시대체 정책이 필요하다. 기존의 대체정책이 캐시성능판단의 두 기준인 히트율(Hit Rate)과 바이트히트율(Byte Hit Rate)을 만족시키지 못하던지 흑은 불필요한 개체에 공간을 낭비하는 등 최대한치 공간활용을 못하는 단점을 가지고 있다. 본 논문에서는 캐시를 상위층과 하위충의 2단계로 나누어 운용하면서, 상위층은 분할된 여러개의 파티션으로 관리하여 히트율과 바이트율을 높게 유지하고 하위층은 상위의 각각의 파티션들에 추가적으로 필요한 캐시공간을 제공함으로서 동적인 파티션공간분할 효과를 제공하는 프락시 서버의 캐시구조와 캐시대체정책을 제안한다.

  • PDF

Web Proxy Cache Replacement Algorithms using Object Type Partition (개체 타입별 분할공간을 이용한 웹 프락시 캐시의 대체 알고리즘)

  • Soo-haeng, Lee;Sang-bang, Choi
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.27 no.5C
    • /
    • pp.399-410
    • /
    • 2002
  • Web cache, which is functionally another word of proxy server, is located between client and server. Web cache has a limited storage area although it has broad bandwidth between client and proxy server, which are usually connected through LAN. Because of limited storage capacity, existing objects in web cache can be deleted for new objects by some rules called replacement algorithm. Hit rate and byte-hit rate are general metrics to evaluate replacement algorithms. Most of the replacement algorithms do satisfy only one metric, or sometimes none of them. In this paper, we propose two replacement algorithms to achieve both high hit rate and byte-hit rate with great satisfaction. In the first algorithm, the cache is appropriately partitioned according to file types as a basic model. In the second algorithm, the cache is composed of two levels; the upper level cache is managed by the basic algorithm, but the lower level is collectively used for all types of files as a shared area. To show the performance of the proposed algorithms, we evaluate hit rate and byte-hit rate of the proposed replacement algorithms using the trace driven simulation.

IT-based Technology An Efficient Global Buffer Management ,algorithm for SAN Environments (SAN 환경을 위한 효율적인 전역버퍼 관리 알고리즘)

  • 이석재;박새미;송석일;유재수;이장선
    • The Journal of the Korea Contents Association
    • /
    • v.4 no.3
    • /
    • pp.71-80
    • /
    • 2004
  • In distributed file-systems, cooperative caching algorithm which owns the data cached at each node jointly is used to reduce an expense of disk access. Cooperative caching algorithm is the method that increases a cache hit-ratio and decrease a disk access as it holds the cache information of distributed systems in common and makes cache larger virtually. Recently, several cooperative caching algorithms decrease the message costs by using approximate information of the cache and increase the cache hit-ratio by using local and global cache fields dynamically. And they have an advantage that increases the whole field hit-ratio by sending a replaced buffer to the idle node on buffers replacement in order to maintain the replaced cache in the cache field. However the wrong approximate information deteriorates the performance, the consistency maintenance goes to great expense to exchange messages and the cost that manages Age-information of each node to choose the idle node increases. In this thesis, we propose a cooperative cache algorithm that maintains correct cache information, minimizes the maintenance cost for consistency and the management cost for buffer Age-information. Also, we show the superiority of our algorithm through the performance evaluation.

  • PDF

A Smart Caching Scheme for Wireless Home Networking Services (무선 홈 네트워킹 서비스를 위한 스마트 캐싱 기법)

  • Lee, Chong-Deuk
    • Journal of Digital Convergence
    • /
    • v.17 no.9
    • /
    • pp.153-161
    • /
    • 2019
  • Discrimination of media object segments in wireless home proxies has a significant impact on caching delay, and caching delay degrades the performance of the proxy. In this paper, we propose a Single Fetching Smart Caching (SFSC) strategy and a Multi-Fetching Smart Caching (MFSC) strategy to improve the proxy performance of the home network and improve the caching performance for media object segments. The SFSC strategy is a technique that performs caching by sequential fetching of object segments requested by the home node one at a time, which guarantees a faster cache hit rate, and the MFSC strategy is a technique that caches the media object segments by blocking object segments requested by the home node one at a time, which improves the throughput of cache. Simulation results show that the cache hit rate and the caching delay are more efficient than the MFSC technique, and the throughput of the object segment is more efficient than that of the SFSC technique.

SSD based Second Disk Cache Replacement Scheme (SSD 기반 보조 디스크 캐시 교체 기법)

  • Ryu, Yeon-Joong;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2014.07a
    • /
    • pp.343-345
    • /
    • 2014
  • 플래시 메모리의 인기가 증가하면서 스토리지 시스템의 변화를 가져왔다. 플래시 메모리 기반의 SSD(Solid State Disk)는 기존의 HDD(Hard Disk Drive)를 대체할 매체로 주목을 받고 있으며 HDD에 비해 훨씬 더 높은 대역폭, 랜덤 접근 성능 및 충격에 강한 장점들을 갖는다. 그러나 플래시 메모리는 HDD와 달리 덮어쓰기(In-Place update)가 불가능 하기 때문에, 데이터를 업데이트 하기 위해서는 해당영역을 지운 후 업데이트를 해야 하는 단점이 있다. 본 논문에서는 캐시 안에서의 거의 접근하지 않을 블락과 캐시로 들어가는 것을 막기 위한 기법을 제시한다. 이것은 캐시의 오염을 막고 더 오랜 기간 동안 캐시 안에서 인기 있는 블락 들을 유지하고 높은 히트율로 연결될 것이다. 또한 캐시 교체의 수를 줄임으로써 SSD의 쓰기를 감소할 것이고 그 결과 성능 뿐만 아니라 SSD의 수명도 연장 에도 도움이 될 것이다.

  • PDF

Cache simulation for measuring cache performance suitable for sound rendering (사운드 렌더링에 적합한 캐시 성능 측정을 위한 캐시 시뮬레이션)

  • Joo, Yejong;Hong, Dukki;Chung, Woonam;Park, Woo-Chan
    • Journal of the Korea Computer Graphics Society
    • /
    • v.23 no.3
    • /
    • pp.123-133
    • /
    • 2017
  • Cache performance is an important factor in hardware system. We proceed with a cache simulation to analyze the cache performance suitable for sound rendering. In addition, we introduce hardware models based on ray tracing used in geometric method and studies to improve cache performance. Cache simulation is performed on various conditions for cache size, way and block. Various simulations can be found to influence the cache hit rate. We compare cache simulation results with actual hardware performance to analyze cache performance suitable for sound rendering.

An Improved Load Balancing for Proxy Caching in a Wireless Internet Proxy Server Cluster Environment (무선인터넷 프록시 서버 클러스터 환경에서 프록시 캐싱을 위한 향상된 부하 분산에 대한 연구)

  • Hwang, Jae-Hoon;Kwak, Hu-Keun;Chung, Kyu-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.256-258
    • /
    • 2005
  • 현대 사회에서 무선 인터넷의 활용 분야가 날로 확대되어 가고 있으나 낮은 대역폭, 단말기 해상도의 다양성 등의 여러 가지 근본적인 문제들을 가지고 있다. 이러한 문제를 해결하기 위하여 무선인터넷 프록시 서버를 사용하며, 데이터에 대한 압축과 캐싱 방법을 사용한다. 캐싱 관점에서 해시의 사용은 캐시의 히트율(Hit ratio)을 높이며, 캐시간 협동성(Cooperative Caching)도 가지게 한다. 그러나 기존의 해시기반 스케줄링 알고리즘에서 사용자의 요청이 균등하게 분배되지 못하고 일부 서버로 몰리는 문제점을 가지고 있다. 본 논문에서는 해시 테이블을 이용한 라운드로빈 방식과 캐시 이용률을 이용한 스케줄링 방식을 제안하여, 캐시간 협동성과 사용자의 요청을 고르게 분포 시키도륵 하였다. 16대의 컴퓨터를 이용하여 실험을 수행하였고, 실험결과를 통해 제안된 방식이 기존 방식보다 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 향상됨을 확인하였다.

  • PDF

Disk Caching Scheme Using Lightweight Reuse Distance Measurement Scheme (경량의 재사용 거리 측정 기법을 이용한 디스크 캐싱 기법)

  • Son, Youngjae;Cheong, Seok Hyun;Gil, Gun Wook;Kang, Minjae;Noh, Dong Kun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.01a
    • /
    • pp.1-2
    • /
    • 2020
  • 응용프로그램의 응답성을 향상시키기 위해서는 저장장치 시스템의 데이터 처리 능력이 중요하다. 한편, 차세대 메모리(NVDIMM)는 DRAM과 SSD 중간 정도의 성능 특성과 저장 용량을 갖는다. NVDIMM을 저장장치의 캐시로 사용함으로써 메모리와 저장장치의 격차는 많이 줄게 된다. 본 논문에서는 경량의 재사용 거리 측정 기법을 이용하여 효율적으로 디스크를 캐싱하는 기법을 제안한다. 제안 기법은 경량의 재사용 거리 측정 기법을 바탕으로 계산된 CFD(Computational Fluid Dynamics)값에 따라 디스크 캐시에 해당 데이터 적재 여부를 결정한다. 결과적으로 제안 기법을 적용한 디스크 캐시를 운용함에 따라 캐시의 히트율을 향상시켰다.

  • PDF

An Optimal Technic to Utilize Resource on Extended Web Cache Server (확장된 웹 캐시 서버에서 자원이용률 최적화 기법)

  • 김원기;김두상;김성락;구용완
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10e
    • /
    • pp.184-186
    • /
    • 2002
  • 대규모 웹 캐시 서버의 자원 이용도는 네트워크와 디스크 I/O 대기 시간에 주로 의존하고 또한 작업 부하 패턴에 있어 네트웍 사용이 폭주하는 시간과 새벽과 같은 한가한 시간간의 변동성이 심하다. 따라서, 한정된 자원범위에서 최상의 서비스를 제공키위해서는 절정기 동안 자원 이용도를 낮추고 이들 작업부하를 비절정기 때에 나누어 수행토록 함으로써 자원 활용도를 최대로 끌어 올리자는데, 연구의 목적이 있다 이를 위해 비절정기 동안 캐시압축 기법을 이용하여 디스크 입출력 작업을 미래예측 기법은 어느 점에서의 실제 작업 세트가 작았다는 것과 페이지 재사용 패턴의 정확한 예측은 물리적 메모리 크기의 캐시에서 높은 히트율을 생산할 것이라는 점을 보여주었다.

  • PDF

Hashing Method with Dynamic Server Information for Load Balancing on a Scalable Cluster of Cache Servers (확장성 있는 캐시 서버 클러스터에서의 부하 분산을 위한 동적 서버 정보 기반의 해싱 기법)

  • Hwak, Hu-Keun;Chung, Kyu-Sik
    • The KIPS Transactions:PartA
    • /
    • v.14A no.5
    • /
    • pp.269-278
    • /
    • 2007
  • Caching in a cache sorrel cluster environment has an advantage that minimizes the request and response tine of internet traffic and web user. Then, one of the methods that increases the hit ratio of cache is using the hash function with cooperative caching. It is keeping a fixed size of the total cache memory regardless of the number of cache servers. On the contrary, if there is no cooperative caching, the total size of cache memory increases proportional to the number of cache sowers since each cache server should keep all the cache data. The disadvantage of hashing method is that clients' requests stress a few servers in all the cache servers due to the characteristics of hashing md the overall performance of a cache server cluster depends on a few servers. In this paper, we propose the method that distributes uniformly client requests between cache servers using dynamic server information. We performed experiments using 16 PCs. Experimental results show the uniform distribution o