• Title/Summary/Keyword: 캐쉬정책

Search Result 76, Processing Time 0.021 seconds

A Prefetch Algorithm for a Mobile Host using Association Rules (연관 규칙을 이용한 이동 호스트의 선반입 알고리즘)

  • 김호숙;용환승
    • Journal of KIISE:Databases
    • /
    • v.31 no.2
    • /
    • pp.163-173
    • /
    • 2004
  • Recently, location-based services are becoming very Popular in mobile environments. In this paper, we propose a new association based prefetch algorithm (called by STAP) that efficiently supports information service based on the large quantity of spatial database in mobile environments. We apply the spatial-temporal relations that are meaningful for location-based queries in mobile environments. Moreover, STAP considers user's mobility and the weight of spatial data. The relation of services is a new aspect not considered in previous cache politics. So STAP is the first prefetch algorithm considering the spatial-temporal relations and thus the cache policy begins to gain a new dimension. We evaluate the performance of STAP and prove the efficiency of STAP.

An extended monitoring tool for proxy server management (프락시 서버 관리를 위한 확장된 모니터링 도구)

  • Kim, Se-Ju;Lee, Keum-Suk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.04b
    • /
    • pp.643-646
    • /
    • 2001
  • 현재의 인터넷 사용자들은 하루가 다르게 증가하고 있는 실정이다. 사용자들의 증가로 인하여 많은 네트워크의 부하가 걸리게 되는데 이는 결국 네트워크 속도 감소로 이어지고 있다. 따라서 네트워크의 속도 문제를 해결하기 위한 방법으로 많은 연구가 진행 되어 왔는데 그 중의 하나가 웹 캐쉬 방법중의 하나인 프락시(proxy) 서버를 이용하는 방법이다. 이러한 프락시 서버 관리를 위한 모니터링 도구들이 많이 상용화 되었고 기존의 프락시 서버를 관리하는 모니터링 연구에서는 프락시 서버의 캐쉬 히트율(hit ratio)이나 바이트 히트율을 높이는 방안을 제시하고자 했다. 그러나 이러한 모니터링으로는 프락시 서버의 부하(load)가 얼마나 걸리는지를 파악 할 수가 없다. 따라서 본 논문에서는 기존의 프락시 서버 모니터링 방식과 더불어 부하의 정보를 제공함으로서 부하 균등 정책이나 사용자의 성향을 파악하여 프락시 서버를 좀 더 효율적으로 관리하고자 하는 방안을 제시하고자 한다.

  • PDF

Performance Study of Probability-based Tile Pre-fetching and Cache Replacement Algorithms for Web Geographical Information Systems (웹 지리정보시스템을 위한 확률 기반의 타일 프리페칭과 캐쉬대채 알고리즘의 성능평가)

  • 강용균;김기창;김유성
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.139-141
    • /
    • 2001
  • 기존의 웹 지리정보시스템에서 전송되는 지리 데이타의 단위가 매우 크기 때문에 사용자들은 지도의 긴초기로딩시간과 늦은 응답시간동안 기다려야 했다. 지리정보시스템에서 기존 연구들은 타일과 레이어의 개념을 이용하여 지도의 긴 초기로딩시간을 최적화하는데 초점을 맞추고 있으나 사용자들의 응답시간을 줄이는 연구는 상대적으로 적었다. 응답시간을 줄이기 위해서 일반적으로 서버로부터 사용자가 앞으로 사용하게 될 타일들을 미리 예측하여 클라이언트로 가져다 놓는 프리패칭 메카니즘을 사용한다. 본 논문에서는 확률기반 모델로 표현된 사용자의 타일접근패턴을 이용하여 앞으로 사용될 타일을 정확하게 예측하여 응답시간을 줄이는 프리패칭 알고리즘과 이와 연동하는 캐쉬대체정책을 제안했다. 제안된 알고리즘을 시뮬레이션을 통해 실험해 본 결과 사용자 응답시간이 36%~40%정도 빨라지는 성능향상을 보였다.

  • PDF

Context-aware caching Strategy in Digital Television Environment (디지털 텔레비전 환경에서의 문맥인지 캐슁 정책)

  • 최지혁;이해원;김수연;최양희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10c
    • /
    • pp.510-512
    • /
    • 1999
  • 컴퓨터통신 분야 및 개인이동통신 분야 등에서 먼저 도입된 멀티미디어 데이터의 사용이 큰 호응을 얻으면서, 최근 디지털 텔레비전 환경에서 멀티미디어 데이터 방송서비스를 시행하려는 노력들이 이루어지고 있다. 이는 다수의 사용자를 겨냥한 방송서비스로 데이터가 개별 사용자의 요구에 의해서가 아닌 정해진 방송 순서에 의해 제공된다. 따라서 사용자들은 원하는 정보를 수신할때까지 대기하게 된다. 이러한 응답시간 (response time)을 감소시키기 위해서, 문맥인지 캐슁(context-aware caching) 정책과 캐쉬 점유 우선순위 결정에 핵심이 되는 두 노드사이의 거리 산출을 위한 방법을 제안한다. 또한 선입산출(first-in-first-out) 정책과의 비교 모의실험(simulation)을 통해, 제안한 문맥인지 캐슁 정책이 응답시간 감소효과가 좋음을 확인하고, 이를 분석한다.

  • PDF

A Study of File Replacement Policy in Data Grid Environments (데이터 그리드 환경에서 파일 교체 정책 연구)

  • Park, Hong-Jin
    • The KIPS Transactions:PartA
    • /
    • v.13A no.6 s.103
    • /
    • pp.511-516
    • /
    • 2006
  • The data grid computing provides geographically distributed storage resources to solve computational problems with large-scale data. Unlike cache replacement policies in virtual memory or web-caching replacement, an optimal file replacement policy for data grids is the one of the important problems by the fact that file size is very large. The traditional file replacement policies such as LRU(Least Recently Used) LCB-K(Least Cost Beneficial based on K), EBR(Economic-based cache replacement), LVCT(Least Value-based on Caching Time) have the problem that they have to predict requests or need additional resources to file replacement. To solve theses problems, this paper propose SBR-k(Sized-based replacement-k) that replaces files based on file size. The results of the simulation show that the proposed policy performs better than traditional policies.

Dynamic Main Memory Web Caching (동적 메인 메모리 웹 캐쉬 할당 정책)

  • Yeom, Mi-Ryeong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10b
    • /
    • pp.1473-1476
    • /
    • 2001
  • 웹의 이용율 증가로 클라이언트의 요청이 급증하지만 웹 서버의 처리 능력은 한계에 다다르고 있다. 늘어나는 요청율에 응답하기 위해서 웹 서버는 불필요한 오버해드는 피해야 한다. 본 논문에서는 요청들에 대한 처리 순서를 고려함으로써 입출력 오버해드를 줄이는 동적 메인 메모리 캐슁을 제안하였으며 실험 결과 웹 서버의 처리율을 증가시켰다.

  • PDF

Adaptive Video Stream Cache for Internet Video Transmission (인터넷 비디오 전송을 위한 적응적 비디오 스트림 캐쉬)

  • 김은영;유초롱;권택근
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10c
    • /
    • pp.635-637
    • /
    • 1999
  • 기존의 인터넷 기반 데이터 서비스는 'Best-effort' 정책으로 멀티미디어 서비스를 위한 트래픽 제어(traffic control) 기능을 제공하지 못한다. 그러므로 실시간 데이터 전송을 기반으로 제공되는 VOD(Video-on-Demand) 서비스는 사용자가 원하는 QoS(Quality of Service)를 제공할 수 없다. 따라서 인터넷 상에서 트래픽 제어 기능을 갖춘 중개자를 두어 VOD 서비스를 제공하는 방법에 대해 제안한다. 중개자의 주요 기능은 비디오 서버와 클라이언트 사이에 비디오 데이터의 버퍼링 기능을 이용하여 실시간 트래픽 제어를 수행한다. 이런 기능을 가진 중개자를 에이전트라 부르고, 에이전트에 대한 설계 및 구현에 대해 기술한다.

  • PDF

Table Comparison Prefetching using Available I/O Bandwidth in Parallel File System (병렬 파일 시스템에서의 가용 입출력 대역폭을 고려한 테이블 비교 선반입 정책)

  • 김재열;석성우;조종현;서대화
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10c
    • /
    • pp.630-632
    • /
    • 2000
  • 과도한 파일 입출력이 요구되는 병렬파일 시스템의 성능을 결정하는 중요한 요소로서 캐슁과 선반입을 들 수 있다. 본 논문은 캐쉬의 크기에 비해 상대적으로 큰 파일을 요청하는 경우에 시스템 성능에 막대한 영향을 미치는 선반입에 대해서 선반입할 데이터를 결정하는 알고리즘으로 테이블 비교법을 제안하고, 이와 더불어 예측된 데이터의 선반입 여부와 선반입 시기를 결정하는 경우 현재의 가용 입출력 대역폭을 고려하는 기법을 제안한다. 제안하는 선반입 알고리즘을 시뮬레이션을 통하여 기타 선반입 알고리즘과 비교해 본 결과 파일 시스템 성능이 향상되었음을 보여준다.

  • PDF

Efficient Buffer Allocation Policy for the Adaptive Block Replacement Scheme (적응력있는 블록 교체 기법을 위한 효율적인 버퍼 할당 정책)

  • Choi, Jong-Moo;Cho, Seong-Je;Noh, Sam-Hyuk;Min, Sang-Lyul;Cho, Yoo-Kun
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.27 no.3
    • /
    • pp.324-336
    • /
    • 2000
  • The paper proposes an efficient buffer management scheme to enhance performance of the disk I/O system. Without any user level information, the proposed scheme automatically detects the block reference patterns of applications by associating block attributes with forward distance of a block. Based on the detected patterns, the scheme applies an appropriate replacement policy to each application. We also present a new block allocation scheme to improve the performance of buffer cache when kernel needs to allocate a cache block due to a cache miss. The allocation scheme analyzes the cache hit ratio of each application based on block reference patterns and allocates a cache block to maximize cache hit ratios of system. These all procedures are performed on-line, as well as automatically at system level. We evaluate the scheme by trace-driven simulation. Experimental results show that our scheme leads to significant improvements in hit ratios of cache blocks compared to the traditional schemes and requires low overhead.

  • PDF

Disk Cache Manager based on Minix3 Microkernel : Design and Implementation (Minix3 마이크로커널 기반 디스크 캐쉬 관리자의 설계 및 구현)

  • Choi, Wookjin;Kang, Yongho;Kim, Seonjong;Kwon, Hyeogsoong;Kim, Jooman
    • Journal of Digital Convergence
    • /
    • v.11 no.11
    • /
    • pp.421-427
    • /
    • 2013
  • Disk Cache Manager(DCM), a functional server of microkernel based, to improve the I/O power of shared disks is designed and implemented in this work. DCM interfaces other different servers with message passing through ports by serving as a system actor the multi-thread mode on the Minix3 micro-kernel. DCM proposed in this paper uses the shared disk logically as a Seven Disk and Sodd Disk to enable parallel I/O. DCM enables the efficient placement of disk data because it raises disk cache hit-ratio by increasing the cache size when the utilization of the particular disk is high. Through experimental results, we show that DCM is quite efficient for a shared disk with higher utilization.