• Title/Summary/Keyword: 캐시 서버

Search Result 175, Processing Time 0.025 seconds

Hybrid storage system for multimedia streaming server using SSD and HDD (멀티미디어 스트리밍 서버를 위한 SSD와 HDD 혼합 스토리지 구조)

  • Kim, Sun-Woo;Mun, Ji-Sung;Ki, An-Ho;Kang, Soo-Yong
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.346-349
    • /
    • 2011
  • SSD를 멀티미디어 스트리밍 서버 환경에서 저장매체로 사용하기 위한 연구가 최근 활발하게 일어나고 있으나, 아직 비싼 가격을 갖는 SSD의 단점으로 인해 HDD를 온전히 대체하는 방향으로는 진행되지 못하고 있다. 그 대안으로 HDD와 함께 사용하면서 상대적으로 더 빠른 읽기 성능을 활용하여 읽기 캐시로 사용하고자 하는 방향으로 진행되고 있다. 본 논문에서는 SSD를 HDD의 읽기 캐시로 사용하면서 기존의 방식과는 달리 데이터의 전부를 SSD 또는 HDD에 두는 모델을 사용하지 않고, 멀티미디어 데이터의 일부를 SSD에, 그리고 나머지를 HDD에 두는 모델을 제안한다. 이 모델은 스트리밍 환경을 고려하여 빠른 초기 반응을 필요로 하는 멀티미디어 데이터의 앞 부분을 더 빠른 속도의 SSD를 통해 서비스하고, SSD가 서비스를 수행하는 동안 HDD에서 나머지 부분을 서비스함으로써 빠른 초기 반응 시간과 함께 두 저장매체 모두의 대역폭을 최대로 사용할 수 있는 방법을 제안한다.

Design of a Replacement Poloicy for WWW Proxy Cache using Genetic Algorithm (유전 알고리즘을 이용한 웹프락시 캐시의 교체 정책 설계)

  • Ban, Hyo-Gyeong;Jo, Gyeong-Un;Go, Geon;Mun, Byeong-Ro
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.26 no.6
    • /
    • pp.729-741
    • /
    • 1999
  • WWW의 사용량이 대단히 빠르게 늘어남에 따라 웹 프락시 서버의 캐싱 기능은 그 중요성이 날로 증가하고 있다. 본 논문에서는 이러한 웹 프락시 캐시의 교체 정책을 웹 요구의 특성과 프락시 서버환경자체를 고려하여 주어진 환경에 맞는 교체 정책이 되도록 유전 알고리즘을 사용하여 설계하는 방법을 제시하였다. 이 방법은 대부분의 기존 연구에서처럼 특정한 교체 정책 자체를 제시하는 것이 아니라, 주어진 프락시 환경에 적합한 교체 정책을 동적으로 설계할 수 있는 방법을 제시한다는 점메서 기존의 연구보다 일반성이 높다.

Cache Policies for WWW Sewers to Reduce Workload (웹 서버 작업부하 감소를 위한 캐시 정책)

  • Lim Jaehyun
    • Journal of Internet Computing and Services
    • /
    • v.5 no.6
    • /
    • pp.103-110
    • /
    • 2004
  • In this paper we study and analyze the influence of caching strategies on the performance of WWW servers, We propose a new strategy called file type based caching that aims to obtain a well-balanced mixture between large and small files in the cache, and moreover, it provides good performance for both small and large file as expected, By using the type based caching good results are obtained for both the hit rate and the byte hit rate.

  • PDF

Efficient Caching Technique for Replacement of Execution Code on Active Network Environment (액티브 네트워크 환경에서 실행 코드 교체를 위한 효율적인 캐싱 기법)

  • 조정희;김동혁;장창복;조성훈;최의인
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.438-441
    • /
    • 2004
  • 인터넷의 급속한 발전과 컴퓨터 성능의 발달로 많은 사용자들은 네트워크를 통해 정보를 획득하고 이용하고 있다. 이에 따라 사용자의 요구도 빠르게 증가하고 있으며, 이러한 사용자 요구를 해결하기 위해 액티브 네트워크와 같은 기술들이 활발하게 연구되고 있다. 액티브 네트워크란 라우터나 스위치가 프로그램 실행 능력을 가지고 있어서 프로그램을 포함하고 있거나 중간 노드의 프로그램을 실행하도록 하는 패킷을 다양하고 유동적으로 처리할 수 있는 환경을 말한다. 이러한 액티브 네트워크의 중간 노드(Active Node)는 단순한 패킷 전달(forwarding) 기능 이외에 사용자의 실행 코드를 저장하고, 처리할 수 있는 기능을 가지고 있다. 따라서 액티브 노드에서 패킷을 실행하기 위해서는 각 패킷을 처리하는데 필요한 실행 코드가 요구되고, 이러한 실행 코드는 이전의 액티브 노드나 코드 서버에 요청함으로써 얻을 수 있다. 하지만 이러한 실행 코드를 이전 액티브 노드나 코드 서버에서 가져오게 되면 실행코드가 전달될 때까지의 시간지연이 발생하므로 사용되었던 실행 코드를 액티브 노드의 캐시에 저장하여 코드의 실행 속도를 증가 시킬 필요가 있다. 따라서 본 논문에서는 액티브 노드 상에 실행 코드를 효율적으로 캐시 함으로써 실행코드 요청의 횟수를 줄이고 패킷 처리 속도를 향상시킬 수 있는 캐싱 기법을 제안하였다.

  • PDF

A Study on NFS and iSCSI in Small Random Write Intensive Applications (Small Random Write 환경에서의 NFS와 iSCSI에 대한 연구)

  • Choi, Chanho;Kim, Shin-gyu;Eom, Hyeonsang;Yeom, HY.
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.139-141
    • /
    • 2012
  • 클라우드 시스템에서 사용되는 스토리지 서버는 다수의 워크로드가 혼재됨으로 인하여 상당수의 쓰기 연산이 Small Random한 특성을 가지게 된다. 좀 더 높은 성능을 위해서 이런 특성에 적합한 스토리지 서버를 구축하는 것이 필요하며 이를 위해 본 논문에서는 자주 사용되는 스토리지 프로토콜인 NFS와 iSCSI를 비교하여 어떤 쪽이 Small Random Write에 더 적합한지 실험을 통해 알아 보았다. 결과적으로 Small Random Write들은 캐시에 합쳐지는 효과에 상당한 영향을 받으며, 이런 캐시 효과가 더 효율적인 것은 iSCSI 임을 확인하였다.

Delay Attenuation LFU (DA-LFU) Cache Replacement Policy to Improve Hit Rates in CCN (CCN에서 적중률 향상을 위한 지연감쇠 LFU(DA-LFU) 캐시 교체 정책)

  • Ban, Bin;Kwon, Tae-Wook
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.9 no.3
    • /
    • pp.59-66
    • /
    • 2020
  • Content Centric Network(CCN) with architecture that is completely different from traditional host-based networks has emerged to address problems such as the explosion of traffic load in the current network. Research on cache replacement policies is very active to improve the performance of CCN with the characteristics that all routers cache on the network. Therefore, this paper proposes a cache replacement policy suitable for situations in which popularity is constantly changing, taking into account the actual network situation. In order to evaluate the performance of the proposed algorithm, we experimented in an environment where the popularity of content is constantly changing, and confirmed that we are superior to the existing replacement policy through comparing hit rates and analyzing server load.

A Cache Policy Based on Producer Popularity-Distance in CCN (CCN에서 생성자 인기도 및 거리 기반의 캐시정책)

  • Min, Ji-Hwan;Kwon, Tae-Wook
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.17 no.5
    • /
    • pp.791-800
    • /
    • 2022
  • CCN, which has emerged to overcome the limitations of existing network structures, enables efficient networking by changing the IP Address-based network method to the Content-based network method. At this time, the contents are stored on each node(router) rather than on the top server, and considering the limitation of storage capacity, it is very important to determine which contents to store and release through the cache policy, and there are several cache policies that have been studied so far. In this paper, two of the existing cache policies, producer popularity-based and distance-based, were mixed. In addition, the mixing ratio was set differently to experiment, and we proved which experiement was the most efficient one.

MLC-LFU : The Multi-Level Buffer Cache Management Policy for Flash Memory (MLC-LFU : 플래시 메모리를 위한 멀티레벨 버퍼 캐시 관리 정책)

  • Ok, Dong-Seok;Lee, Tae-Hoon;Chung, Ki-Dong
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.1
    • /
    • pp.14-20
    • /
    • 2009
  • Recently, NAND flash memory is used not only for portable devices, but also for personal computers and server computers. Buffer cache replacement policies for the hard disks such as LRU and LFU are not good for NAND flash memories because they do not consider about the characteristics of NAND flash memory. CFLRU and its variants, CFLRU/C, CFLRU/E and DL-CFLRU/E(CFLRUs) are the buffer cache replacement policies considered about the characteristics of NAND flash memories, but their performances are not better than those of LRD. In this paper, we propose a new buffer cache replacement policy for NAND flash memory. Which is based on LFU and is taking into account the characteristics of NAND flash memory. And we estimate the performance of hit ratio and flush operation numbers. The proposed policy shows better hit ratio and the number of flush operation than any other policies.

Interchange Algorithm for VoD System (VOD 시스템에서의 Interchange Agent 운영 알고리즘)

  • Kang, Seok-Hoon;Park, Su-Hyun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.8
    • /
    • pp.1847-1854
    • /
    • 2005
  • This paper proposes a approach to configure efficient video-on-demand system by introducing Multicast and Cache Video-on-Demand (MCVoD) system. As a key element or the MCVoD system, interchange agent provides this system with multicasting and switching functions. With the multicasting, the MCVoD system is able to reduce the load on the network as well as VoD servers by transmitting only one video request instead of sending multiple requests on a same video stream. The switching enables clients to receive the lust stream of requested video streams instantly without waiting time and also allows avoiding undesirable duplication of video streams in the system. With various experiment results through simulation about waiting tine and cache hit ratio, we show that the MCVoD system employing the interchange agent provides better performance than current uni-proxy based system.

QEMU/KVM Based In-Memory Block Cache Module for Virtualization Environment (가상화 환경을 위한 QEMU/KVM 기반의 인메모리 블록 캐시 모듈 구현)

  • Kim, TaeHoon;Song, KwangHyeok;No, JaeChun;Park, SungSoon
    • Journal of KIISE
    • /
    • v.44 no.10
    • /
    • pp.1005-1018
    • /
    • 2017
  • Recently, virtualization has become an essential component of cloud computing due to its various strengths, including maximizing server resource utilization, easy-to-maintain software, and enhanced data protection. However, since virtualization allows sharing physical resources among the VMs, the system performance can be deteriorated due to device contentions. In this paper, we first investigate the I/O overhead based on the number of VMs on the same server platform and analyze the block I/O process of the KVM hypervisor. We also propose an in-memory block cache mechanism, called QBic, to overcome I/O virtualization latency. QBic is capable of monitoring the block I/O process of the hypervisor and stores the data with a high access frequency in the cache. As a result, QBic provides a fast response for VMs and reduces the I/O contention to physical devices. Finally, we present a performance measurement of QBic to verify its effectiveness.