• 제목/요약/키워드: Cache server

검색결과 220건 처리시간 0.029초

무선 인터넷 프록시 서버 클러스터 시스템에서 라운드 로빈을 이용한 해싱 기법 (A Hashing Scheme using Round Robin in a Wireless Internet Proxy Server Cluster System)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제13A권7호
    • /
    • pp.615-622
    • /
    • 2006
  • 무선 인터넷 프록시 서버 클러스터 환경에서의 캐싱은 인터넷 트래픽, 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해쉬 함수를 이용하여 동일 요청 URL을 동일 캐시에 할당하는 방법이다. 해싱을 이용한 방법의 문제점은 해쉬의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 시스템의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 해싱과 라운드 로빈 방식의 장점을 결합하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 개선된 부하 분산 방법을 제안한다. 기존 해싱 방법에서는 요청 URL에 대한 해쉬값이 계산되면 캐시 서버가 컴파일 시간에 정적으로 할당되는 반면, 제안된 방법에서는 라운드 로빈 방법을 사용하여 실행 시간에 동적으로 할당된다. 제안된 방법은 무선 인터넷 프록시 서버 클러스터 환경에서 구현되었고, 16대의 컴퓨터를 이용하여 실험을 수행하였다. 실험 결과는 기존 해싱 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고, 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 52%에서 112%까지 향상됨을 확인하였다.

An ICN In-Network Caching Policy for Butterfly Network in DCN

  • Jeon, Hongseok;Lee, Byungjoon;Song, Hoyoung;Kang, Moonsoo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권7호
    • /
    • pp.1610-1623
    • /
    • 2013
  • In-network caching is a key component of information-centric networking (ICN) for reducing content download time, network traffic, and server workload. Data center network (DCN) is an ideal candidate for applying the ICN design principles. In this paper, we have evaluated the effectiveness of caching placement and replacement in DCN with butterfly-topology. We also suggest a new cache placement policy based on the number of routing nodes (i.e., hop counts) through which travels the content. With a probability inversely proportional to the hop counts, the caching placement policy makes each routing node to cache content chunks. Simulation results lead us to conclude (i) cache placement policy is more effective for cache performance than cache replacement, (ii) the suggested cache placement policy has better caching performance for butterfly-type DCNs than the traditional caching placement policies such as ALWASYS and FIX(P), and (iii) high cache hit ratio does not always imply low average hop counts.

A Data-Consistency Scheme for the Distributed-Cache Storage of the Memcached System

  • Liao, Jianwei;Peng, Xiaoning
    • Journal of Computing Science and Engineering
    • /
    • 제11권3호
    • /
    • pp.92-99
    • /
    • 2017
  • Memcached, commonly used to speed up the data access in big-data and Internet-web applications, is a system software of the distributed-cache mechanism. But it is subject to the severe challenge of the loss of recently uncommitted updates in the case where the Memcached servers crash due to some reason. Although the replica scheme and the disk-log-based replay mechanism have been proposed to overcome this problem, they generate either the overhead of the replica synchronization or the persistent-storage overhead that is caused by flushing related logs. This paper proposes a scheme of backing up the write requests (i.e., set and add) on the Memcached client side, to reduce the overhead resulting from the making of disk-log records or performing the replica consistency. If the Memcached server fails, a timestamp-based recovery mechanism is then introduced to replay the write requests (buffered by relevant clients), for regaining the lost-data updates on the rebooted Memcached server, thereby meeting the data-consistency requirement. More importantly, compared with the mechanism of logging the write requests to the persistent storage of the master server and the server-replication scheme, the newly proposed approach of backing up the logs on the client side can greatly decrease the time overhead by up to 116.8% when processing the write workloads.

이동 클라이언트/서버 컴퓨팅환경에서의 캐싱 및 동시성 제어 (Caching and Concurrency Control in a Mobile Client/Sever Computing Environment)

  • 이상근;황종선;이원규;유헌창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제26권8호
    • /
    • pp.974-987
    • /
    • 1999
  • 이동 컴퓨팅 환경에서 자주 접근하는 데이터에 대한 캐싱은 무선 채널의 좁은 대역폭에서 경쟁을 줄일 수 있는 유용한 기술이다. 그러나, 트랜잭션 캐시 일관성을 지원하는 전통적인 클라이언트/서버 전략은 클라이언트와 서버간에 많은 양의 통신을 필요로 하기 때문에 이동 클라이언트/서버 컴퓨팅 환경에서는 적절하지 않다. 본 논문에서는 브로드캐스트-기반 캐시 무효화 정책을 사용하면서 트랜잭션 캐시 일관성을 지원하는 OCC-UTS (Optimistic Concurrency Control with Update TimeStamp) 프로토콜을 제안한다. 접근한 데이터에 대한 일관성 검사 및 완료 프로토콜은 캐시 무효화 과정의 내부 과정으로 완전 분산 형태로 효율적으로 구현되며, 일관성 체크의 대부분이 이동 클라이언트에서 수행된다. 또한, 분석 모델에 기반한 성능 비교를 통해, 본 논문에서 제안하는 OCC-UTS 프로토콜이 다른 경쟁 프로토콜보다 높은 트랜잭션 처리율을 얻으며, 데이터 항목을 자주 접근하면 할수록 지역 캐시를 사용하는 OCC-UTS 프로토콜이 더 효율적임을 보인다. 이동 클라이언트의 접속 단절에 대해서는 무효화 브로드캐스트 윈도우를 크게 하여 접속 단절에 적절히 대처할 수 있다.Abstract In a mobile computing environment, caching of frequently accessed data has been shown to be a useful technique for reducing contention on the narrow bandwidth of the wireless channels. However, the traditional client/server strategies for supporting transactional cache consistency that require extensive communications between a client and a server are not appropriate in a mobile client/server computing environment. In this paper, we propose a new protocol, called OCC-UTS (Optimisitic Concurrency Control with Update TimeStamp), to support transactional cache consistency in a mobile client/server computing environment by utilizing the broadcast-based solutions for the problem of invalidating caches. The consistency check on accessed data and the commitment protocol are implemented in a truly distributed fashion as an integral part of cache invalidation process, with most burden of consistency check being downloaded to mobile clients. Also, our experiments based on an analytical model substantiate the basic idea and study the performance characteristics. Experimental results show that OCC-UTS protocol without local cache outperforms other competitor protocol, and the more frequent a mobile client accesses data items the more efficient OCC-UTS protocol with local cache is. With respect to disconnection, the tolerance to disconnection is improved if the invalidation broadcast window size is extended.

가상화 환경을 위한 QEMU/KVM 기반의 인메모리 블록 캐시 모듈 구현 (QEMU/KVM Based In-Memory Block Cache Module for Virtualization Environment)

  • 김태훈;송광혁;노재춘;박성순
    • 정보과학회 논문지
    • /
    • 제44권10호
    • /
    • pp.1005-1018
    • /
    • 2017
  • 가상화는 클라우드 컴퓨팅의 핵심 기술로 물리적 서버에 다수의 가상머신을 운영하여 서버 자원에 대한 활용도를 극대화하고, 관리의 편리성과 보안성을 향상시키는 것을 목표로 한다. 그러나 가상화는 물리적인 자원을 공유하기 때문에 가상머신의 성능이 저하되는 문제점을 가지고 있다. 본 연구에서는 가상머신의 대수에 따라서 발생하는 입출력 부하를 검증하고, 성능 저하의 원인을 해결하기 위해 KVM 하이퍼바이저의 블록 처리 과정을 분석하였다. 또한, 가상화 환경의 입출력 문제점을 보완하기 위한 QBic(QEMU/K-VM Based In-Memory Cache)을 구현하였다. QBic은 하이퍼바이저의 블록 입출력 과정을 모니터링하여 사용빈도가 높은 데이터를 캐시에 저장한다. 이후 캐시를 통해 해당하는 데이터를 빠르게 접근할 수 있으며, 스토리지의 접근 횟수를 줄여 하드웨어의 부하를 낮출 수 있다. 마지막으로 성능 측정을 통해 그 결과를 기술한다.

Cache 기법을 도입한 복제 웹서버 시스템 (The Peplica Web Server Systems Using Cache Mechanism)

  • 진상혁;정연진;이광모
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (3)
    • /
    • pp.735-737
    • /
    • 1998
  • 이 논문은 WWW와 데이터베이스의 시스템 통합에 있어서 독립서버로 운영될 때 CGI응용 프로그램의 과부하를 줄이는 복제 서버 시스템 모델[1]에서 데이터베이스 시스템에 매번 연결 및 종료 시 발생되는 접속 시간의 증가를 감소시킬 수 있는 cache기법의 도입과 함께 WWW 서버의 시스템 큐 (queue)의 길이로 시스템 작업량을 측정하여 가장 작업량이 적은 서버를 선택하는 조장자 (coordinator)에 cache정보를 기록하는 기능을 추가하여 보다 원활한 WWW작업 분배를 기대할 수 있고 안전성이 향상된 모델을 제시한다.

  • PDF

Development of a Distributed Web Caching Network through Consistent Hashing and Dynamic Load Balancing

  • Hwan Chang;Jong Ho Park;Ju Ho Park;Kil To Chong
    • 한국통신학회논문지
    • /
    • 제27권11C호
    • /
    • pp.1040-1045
    • /
    • 2002
  • This paper focuses on a hash-based, distributed Wet caching network that eliminates inter-cache communication. An agent program on cache servers, a mapping program on the DNS server, and other components comprised in a distributed Web caching network were modified and developed to implement a so-called "consistent" hashing. Also, a dynamic load balancing algorithm is proposed to address the load-balancing problem that is a key performance issue on distributed architectures. This algorithm effectively balances the load among cache servers by distributing the calculated amount of mapping items that have higher popularity than others. Therefore, this developed network can resolve the imbalanced load that is caused by a variable page popularity, a non-uniform distribution of a hash-based mapping, and a variation of cache servers.

Multi-path Routing Policy for Content Distribution in Content Network

  • Yang, Lei;Tang, Chaowei;Wang, Heng;Tang, Hui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2379-2397
    • /
    • 2017
  • Content distribution technology, which routes content to the cache servers, is considered as an effective method to reduce the response time of the user requests. However, due to the exponential increases of content traffic, traditional content routing methods suffer from high delay and consequent inefficient delivery. In this paper, a content selection policy is proposed, which combines the histories of cache hit and cache hit rate to collaboratively determine the content popularity. Specifically, the CGM policy promotes the probability of possible superior paths considering the storage cost and transmission cost of content network. Then, the content routing table is updated with the proportion of the distribution on the paths. Extensive simulation results show that our proposed scheme improves the content routing and outperforms existing routing schemes in terms of Internet traffic and access latency.

비디오를 위한 효율적인 프록시 서버 캐쉬의 관리 (Efficient Management of Proxy Server Cache for Video)

  • 조경산;홍병천
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.25-34
    • /
    • 2003
  • Because of explosive growth in demand for web-based multimedia applications, proper proxy caching for large multimedia object (especially video) has become needed. For a video object which is much larger in size and has different access characteristics than the traditional web object such as image and text, caching the whole video file as a single web object is not efficient for the proxy cache. In this paper, we propose a proxy caching strategy with the constant-sized segment for video file and an improved proxy cache replacement policy. Through the event-driven simulation under various conditions, we show that our proposal is more efficient than the variable-sized segment strategy which has been proven to have higher hit ratio than other traditional proxy cache strategies.

  • PDF

웹 캐시에서 사이트의 인기도에 의한 도큐먼트 교체정책 (Document Replacement Policy by Site Popularity in Web Cache)

  • 유행석;장태무
    • 한국게임학회 논문지
    • /
    • 제3권1호
    • /
    • pp.67-73
    • /
    • 2003
  • 대부분의 웹 캐시는 도큐먼트를 기반으로 하여 캐시 내에 임시적으로 도큐먼트를 저장하고 사용자의 요청이 있을 때 그에 해당된 도큐먼트가 캐시 내에 존재하면 그 도큐먼트를 사용자에게 전송해 주고, 캐시 내에 존재하지 않을 때에는 새로운 도큐먼트를 서버에게 요청하여 캐시 내에 복사를 하고 사용자에게 되돌려 준다. 이때 캐시의 용량 초과로 인해 새로운 도큐먼트를 기존의 도큐먼트와 교체하기 위해 도큐먼트 교체정책(replacement policy)을 사용한다. 일반적인 교체정책에는 도큐먼트를 기반으로 한 LRU기법이나 UFU기법 등이 있고, 그 밖의 여러 가지 교체정책을 사용하여 캐시내의 도큐먼트를 효과적으로 교체한다. 하지만, 위의 교체정책은 사이트의 인기도를 고려하지 않고 도큐먼트 요청 시간과 빈도수 만을 고려하여 교체정책을 수행한다. 따라서 본 논문에서는 요청이 빈번한 도큐먼트와 사이트의 인기도를 고려한 교체정책을 사용하여 요청이 빈번하지 않은 도큐먼트를 효과적으로 교체함으로써 캐시의 적중률(hit-ratio)을 높이고, 캐시의 내용을 효과적으로 관리할 수 있는 현대적인 네트워크 환경에 적합한 도큐먼트 교체정책인 사이트의 인기도를 고려한 도큐먼트 교체 정책을 제시한다.

  • PDF