• Title/Summary/Keyword: 정책 캐쉬

Search Result 76, Processing Time 0.027 seconds

A Study on Disk Cache Replacement for Data Grids Computing Environment (데이타 그리드 컴퓨팅 환경에서 디스크 캐쉬 교체 연구)

  • Park Hong-Jin
    • Annual Conference of KIPS
    • /
    • 2006.05a
    • /
    • pp.1167-1170
    • /
    • 2006
  • 웹 인프라와 P2P 기술 개념을 기반으로 연구되고 있는 데이터 그리드 컴퓨팅 환경에서 중요한 문제 중 하나는 거대한 데이터 자료 접근에 관한 이슈이다. 요청된 자원 공간을 확보하기위해 저장되어 있는 자원을 선택하는 '캐쉬 교체 정책' 연구는 많이 연구되어 왔으나, 상항을 미리 예측하거나 스택과 같은 추가적인 자원이 필요하다. 본 논문은 기존 연구의 문제점을 해결하고 요청된 파일에 대응되는 파일의 개수가 되도록 적게 하기위해 파일 크기를 고려한 캐쉬 교체 정책을 제안하고 있다.

  • PDF

An Improved Proxy Caching Management for Multimedia (멀티미디어를 위한 개선된 프락시 캐싱 관리 기법)

  • Hong, Byung-Chun;Cho, Kyung-San
    • Annual Conference of KIPS
    • /
    • 2003.05a
    • /
    • pp.427-430
    • /
    • 2003
  • 멀티미디어 특히 비디오 데이터는 대용량 파일 단위의 저장 특성을 가지며 사용자 접근 패턴이 기존의 햄 객체인 이미지 또는 텍스트와 다르기 때문에 기존의 웹 캐슁 정책은 멀티미디어 프락시 서버에는 적절하지 않다. 본 연구에서는 멀티미디어를 위한 프락시 서버의 캐쉬 히트율을 높이고 파일 단위 캐쉬 관리 정책을 세그먼트 관리에 적용하여 세그먼트 관리의 과부하를 줄이는 고정 크기 세그먼트 기법과 개선된 캐쉬 제거 기법을 제안하였다. 또한 시뮬레이션을 통해 제안 기법의 성능 개선 정도를 분석 제시하였다.

  • PDF

A Cache File System for Streaming Media (스트리밍 미디어를 위한 캐쉬 화일 시스템)

  • 오재학;차호정
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.64-66
    • /
    • 2002
  • 본 논문에서는 스트리밍 미디어의 효율적인 캐슁과 재전송을 목적으로 범용 화일 시스템에 기반찬 사용자 수준의 스트리밍 미디어 캐쉬 화일 시스템(umcFS)을 설계하고 구현하였다. umcFS 구조는 큰 캐쉬 블럭 구조와 제어블럭의 정적 할당을 기본 정책으로 유닉스 화일 시스템과 비교되는 확장된 1차 간접 블럭 참조를 통해서 캐쉬 블럭을 관리한다. 제안된 캐쉬 화일 시스템은 기존 파일 블럭 캐슁 시스템에 비해 512KB, 1MB 블럭의 임의 입출력에서 약 7~13%의 성능향상을 보였다.

  • PDF

A Strategy for Efficiently Maintaining Cache Consistency in Mobile Computing Environments of the Asynchronous Broadcasting, (비동기적 방송을 하는 이동 컴퓨팅 환경에서 효율적인 캐쉬 일관성 유지 정책)

  • 김대옹;박성배;김길삼;황부현
    • Journal of the Korea Society of Computer and Information
    • /
    • v.4 no.3
    • /
    • pp.78-92
    • /
    • 1999
  • In mobile computing environments, to efficiently use the narrow bandwidth of wireless networks a mobile host caches the data that are frequently accessed. To guarantee the correctness of the mobile transaction, the data cached in a mobile host must be consistent with the data in a server. This paper proposes a new strategy which maintains cache consistency efficiently when the data cached in a mobile host are inconsistent with the data in a server by the mobility of the mobile host at the asynchronous mobile environment. In this strategy, the size of the invalidation message is relatively small and is independent of the number of data to be invalidated under conditions of variable update rates/patterns. So this strategy uses the narrow bandwidth of wireless networks efficiently and reduces the communication cost.

A Strategy to maintain Cache Consistency in Mobile Computing Environments using the Asynchronous Broadcasting (비동기적 방송을 사용하는 이동 컴퓨팅 환경에서 캐쉬 일관성 유지 정책)

  • Kim, Dae-Ong;Park, Seong-Bae;Hwang, Bu-Hyun
    • The Transactions of the Korea Information Processing Society
    • /
    • v.5 no.11
    • /
    • pp.2763-2775
    • /
    • 1998
  • In mobile computing environments, to efficiently use the narrow bandwidth of wireless networks a mobile host caches the data that are frequently accessed. But, because the cached data can be inconsistent with the data n a server due to the host mobility and the disconnection from a server, the usefullness of cached data may be losted. The traditional methods emphasize on the cache consistency and assume that broadcasting times are synchronized at all mobile supprot stations. In this paper, we propose a strategy to maintain cache consistency, which resolves the problems that be caused by the migration of mobile host. The proposed strategy has asynchronous broadcasting time and reduces the communication overhead caused by the synchronization. Also, by preventing the unnecessary messages transmitting from the mobile support station to a mobile host, this strategy can reduce the communication cost and use the narrow bandwidth of wireless networks efficiently.

  • PDF

A Remote Cache Replacement Policy for the Chordal Ring Based CC-NUMA System (코달링 구조의 CC-NUMA 시스템을 위한 원격 캐쉬 교체 정책)

  • Kim Soo-Han;Kim In-Suk;Kim Bong-Joon;Jhang Seong-Tae
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.31 no.11
    • /
    • pp.643-657
    • /
    • 2004
  • The chordal ring based CC-NUMA system contains many links to transmit transactions between a local node and a remote node because of its structural characteristics. However, the inclination that the transactions concentrate on the ring link increases both the traffic of the ring link and the response time, which degrades the overall performance of the chordal ring based CC-NUMA system. In this paper we suggest a new remote cache replacement policy that considers both the number of total links and the number of ring links to traverse for the transactions. Our proposed replacement policy can balance data between the ring link and the chordal link properly because it reflects the characteristics of chordal ring based CC-NUMA system well.

Cache Replacement Policies for Energy Efficiency (저전력 캐쉬 대체 정책)

  • 이문상;이원진;이준원;맹승렬
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04a
    • /
    • pp.12-14
    • /
    • 2000
  • 소형의 이동 컴퓨터 시스템이 발전하면서 프로세서의 전력 소모(energy dissipation)가 중요한 이슈가 되고 있다. 현재 대부분의 프로세서들은 성능 향상을 위해 캐쉬를 사용하고 있고 이것은 프로세서내의 많은 비율의 전력을 소모한다. 따라서 저 전력 프로세서를 설계하기 위해서는 내장 캐쉬(on-chip cache)의 전력 소모를 줄이는 것이 중요하다. 본 논문은 캐쉬 대체 전략으로 현재 많이 사용되는 LRU(Least Recently Used) 방식을 LFU(Least Frequently Used), LFUT(LFU with Threshold), FIFO(First In First Out) 방식과 관련 효율적 측면에서 비교 분석 한다.

  • PDF

Efficiency comparison between varying cache block size and replacement algorithm (프록시 캐쉬블록사이즈 변화에 따른 replacement 정책의 효율 비교)

  • 신승훈;남동훈;박승규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.34-36
    • /
    • 2001
  • 인터넷 상에서의 동영상이나 음성 등에 대한 서비스가 증가함에 따라, 이러한 미디어스트림을 제공하는 서버의 부하를 줄이기 위해 프록시 서버 사용이 요우되고 있다. 하지마, 미디어스트림을 용량이 크기 때문에 기존의 웹 오브젝트에 대한 캐슁 정책을 그대로 반영하기에는 무리가 따른다. 본 연구에서는 미디어스트림의 효율적인 캐슁를 위하여 다양한 replacement 정책과 캐슁 블록의 크기 변화에 따른 프록시 캐쉬의 효율성 변화를 살펴본다.

A Scheme of Semantic XML Query Cache Replacement (시맨틱 XML 질의 캐쉬의 교체 기법)

  • Hong, Jung-Woo;Kang, Hyun-Chul
    • Annual Conference of KIPS
    • /
    • 2005.05a
    • /
    • pp.59-62
    • /
    • 2005
  • 웹 상에서 XML 로 기술된 데이터가 증가하고, 이를 이용하여 의미 있는 데이터를 검색하는 것의 중요성이 커지고 있다. 웹 상에서 더 좋은 검색 성능을 보이기 위해 XML 질의 결과를 캐쉬하는 방법에 관한 연구들과 캐쉬의 저장 공간과 다양한 질의를 캐쉬에 저장하는 것에 한계가 있기 때문에 캐쉬 교체 기법에 관한 연구들이 있었다. 기존의 XML 캐쉬 교체 정책에는 질의 결과를 교체 단위로 하는 방법과 질의 결과 내의 각 경로들을 교체 단위로 하는 방법이 있는데, 첫번째 방법은 효율이 상대적으로 낮고 두번째 방법은 높은 효율에 비해 교체 연산을 수행하는 부담(overhead)이 크다는 단점이 있었다. 본 논문에서는 위 두 방법의 단점을 해결하기 위해 2 단계로 교체 희생자를 선택하는 방법을 제시한다. 질의 결과들 중에서 교체 희생자를 찾고, 그 희생자 내의 모든 경로들 중에서 다시 교체 희생자를 찾는다. 이는 각 질의 내의 경로가 교체 희생자가 되어 캐쉬 효율을 향상 시키고, 질의 결과에 대해 먼저 교체 대상을 찾으므로 교체 희생자를 찾기 위한 연산을 수행하는 부담을 줄인다. 또한 캐쉬 적중률, 최근 접근 시간, 인출 지연 시간, 객체 크기를 고려하여 교체 희생자를 선택하는 교체 함수를 제시한다. 가상의 시맨틱 데이터에 대한 캐쉬 교체 시스템을 구현하여 본 논문에서 제시한 교체 기법과 교체 함수를 평가한 결과를 기술한다.

  • PDF

Determination of a Grain Size for Reducing Cache Miss Rate of Direct-Mapped Caches (직접 사상 캐쉬의 캐쉬 실패율을 감소시키기 위한 성김도 정책)

  • Jung, In-Bum;Kong, Ki-Sok;Lee, Joon-Won
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.27 no.7
    • /
    • pp.665-674
    • /
    • 2000
  • In data parallel programs incurring high cache locality, the choice of grain sizes affects cache performance. Though the grain sizes chosen provide fair load balance among processors, the grain sizes that ignore underlying caching effect result in address interferences between grains allocated to a processor. These address interferences appear to have a negative impact on the cache locality, since they result in cache conflict misses. To address this problem, we propose a best grain size driven from a cache size and the number of processors based on direct mapped cache's characteristic. Since the proposed method does not map the grains to the same location in the cache, cache conflict misses are reduced. Simulation results show that the proposed best grain size substantially improves the performance of tested data parallel programs through the reduction of cache misses on direct-mapped caches.

  • PDF