• Title/Summary/Keyword: cache replacement

검색결과 168건 처리시간 0.03초

데이터 기반 레이블 스위칭을 위한 캐쉬 대체 기법 (Cache Replacement Schemes for Data Driven Label Switching)

  • 김남기;진성기;박선영;윤현수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.445-447
    • /
    • 2000
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에 많은 부담을 주고 있다. 반면 스위칭 기술은 라우팅보다 빠르게 데이터를 전송할 수 있다. 그 결과 라우터 병목 현상을 해결하고자 IP 라우팅에 스위칭 기술을 접목한 레이블 스위칭 네트웍이 출현하게 되었다. 레이블 스위칭 기술 중 데이터 기반 레이블 스위칭에서 매우 중요한 것은 캐쉬 테이블 관리이다. 캐쉬 테이블에는 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하고 있는데 캐쉬테이블 크기는 라우터 자원에 의해 제약을 받으므로 캐쉬 대체 기법이 필요하게 된다. 따라서 효율적인 캐쉬 테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 필요하다. 본 논문에서는 인터넷 트래픽 특성을 고려해 기본적인 FIFO, LFC, LRU 기법을 실제 인터넷 트래픽을 사용해 성능 평가하고 새로운 가중치 우선순위 LRU 기법을 제안한다. 특히 가중치 우선순위 LRU 기법은 플로우 인앤아웃 현상이 없고 시간이 지나도 새로운 플로우를 적절히 생성해내는 일관성을 지니면서도 스위칭 비용을 줄이는 장점을 가지고 있다.

  • PDF

동적 공간분배에 의한 적응형 웹캐시 대체정책 (Adaptive Web Cache Replacement Policy using Dynamic Distribution of Partitions in Proxy Server)

  • 이수행;정진하;최상방
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (3)
    • /
    • pp.643-645
    • /
    • 2001
  • 인터넷이라는 환경이 우리의 생활의 일부로 자리잡으면서, 급속히 늘어난 사용자들의 요구는 그 만큼 네트워크의 현저한 부하증가를 일으키고 네트워크의 성능저하를 유발하며 속도 면에서도 빠른 응답을 원하는 사용자들의 욕구를 충족시키지 못하게 된다. 이에 대한 하나의 대응책이, 프락시 서버를 사용함으로써 네트워크 대역폭을 효과적으로 절약하고 서버 측의 부하를 감소시키며 사용자의 요청에 대한 빠른 응답이 가능하게 하는 것이다. 그러나 프락시 서버는 제한된 캐시용량 때문에 새 개체를 위한 공간확보를 위해 기존 개체를 제거해야 하는데, 캐시의 성능을 최대화하도록 하는 효율적인 캐시대체 정책이 필요하다. 기존의 대체정책이 캐시성능판단의 두 기준인 히트율(Hit Rate)과 바이트히트율(Byte Hit Rate)을 만족시키지 못하던지 흑은 불필요한 개체에 공간을 낭비하는 등 최대한치 공간활용을 못하는 단점을 가지고 있다. 본 논문에서는 캐시를 상위층과 하위충의 2단계로 나누어 운용하면서, 상위층은 분할된 여러개의 파티션으로 관리하여 히트율과 바이트율을 높게 유지하고 하위층은 상위의 각각의 파티션들에 추가적으로 필요한 캐시공간을 제공함으로서 동적인 파티션공간분할 효과를 제공하는 프락시 서버의 캐시구조와 캐시대체정책을 제안한다.

  • PDF

이동 컴퓨팅 환경에서 캐쉬 교체 알고리즘의 성능평가 (Performance Evaluation of Cache Replacement Algorithm in Mobile Computing Environment)

  • 김호숙;용환승
    • 한국통신학회논문지
    • /
    • 제26권7A호
    • /
    • pp.1135-1143
    • /
    • 2001
  • 최근 저가의 무선 통신 기술의 발달과 고성능 이동 컴퓨팅 장비의 보급에 따라 이동 컴퓨팅 시장이 점차로 확대되면서 이동 컴퓨팅 환경의 제약성에 효율적으로 대처하기 위한 여러 방법이 제안되었고, 캐쉬 기법에 대한 많은 연구가 이루어지고 있다. 그 중에서 이동 호스트의 위치 변화에 따라 이동 호스트의 캐쉬 내에 저장된 데이터의 가치와 의미가 변경되는 것에 기반을 두고, 시간에 따른 사용자의 이동성과 데이터의 공간 속성을 효과적으로 지원하는 캐쉬 교체 방법으로 CR_LOC와 CR_REG가 제안되었다. 본 논문은 이동 컴퓨팅 환경 하에서 데이터의 공간 속성을 고려한 캐쉬 교체를 수행할 때 캐쉬 적중률에 영향을 미치는 다양한 요인들을 분석하고 이에 대한 성능평가를 수행한다. 이를 바탕으로 서로 다른 조건의 이동 호스트 각각에 대한 최적의 캐쉬 교체를 수행하기 위한 캐쉬 교체 선택 알고리즘을 제시한다.

  • PDF

인터넷 프록시 캐쉬를 위한 교체 방식의 성능분석 (Performance Analysis of Replacement Policies for Internet Proxy Cache)

  • 이효일
    • 한국시뮬레이션학회:학술대회논문집
    • /
    • 한국시뮬레이션학회 1999년도 추계학술대회 논문집
    • /
    • pp.138-143
    • /
    • 1999
  • 초고속 정보통신망을 비롯한 인프라의 구축이 확대되면서 다양한 종류의 정보 서비스들이 활성화되고 있다. 최근 인터넷의 사용자 수가 크게 증가함에 따라 웹 서버에 걸리는 부하와 통신망의 트래픽이 급증하고 있으며, 이들은 응답시간을 지연시키는 주요 요인이 되고 있다. 이러한 문제를 해결하기 위하여 액세스 빈도가 높은 정보는 클라이언트에 가까이 위치한 프록시 서버에 캐슁함으로써 웹서버의 병목현상을 완화시키고, 통신망의 트래픽을 줄이며, 서비스 응답시간을 줄일 수 있다. 또한 여러 프록시 캐쉬들에 저장된 정보들을 클라이언트들이 공유함으로써 인터넷 성능을 보다 향상시킬수 있다. 본 논문에서는 실제 웹 트레이스를 이용한 시뮬레이션을 이용하여, 3-레벨 4진 트리(3-level 4-ary tree) 구조의 계층적 프록시 캐슁 환경에서 캐쉬 교체 정책에 따른 캐쉬 적중률의 변화를 분석하고, 인터넷 서비스 향상을 위한 최적의 교체방식을 제안한다.

  • PDF

그룹 기반의 웹 캐쉬 교체 기법 (A Group-based Web Cache Replacement Technique)

  • 방지호;하란;차호정
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (A)
    • /
    • pp.352-354
    • /
    • 2001
  • 효율적인 웹 캐쉬 교체 알고리즘을 통해 웹 서버와 네트워크의 부하를 감소시킬 수 있으며, 이에 따라 사용자가 요청한 문서에 대한 응답시간과 지연시간을 효과적으로 개선시킬 수 있다. 기존에 연구된 교체 알고리즘 중 LRU-SIZE와 LRU-MIN 기법은 일차적으로 캐슁된 문서의 크기에 따라 교체를 하고 크기가 똑같은 경우에 한해서 LRU를 적용하여 교체를 한다. 그러나 LRU-SIZE와 LRU-MIN에 의해서 캐슁된 문서를 교체를 하면 크기의 차이가 크지 않으면서 자주 요청되는 문서가 교체될 수 있다. 본 논문에서는 캐슁된 문서 크기의 로그화에 따라 구성된 그룹에서 자주 요청되지 않는 문서를 교체하는 알고리즘을 제안한다. 로그화를 통해 크기의 차이가 적은 문서들이 같은 그룹으로 설정되어 비교되기 때문에 자주 요청되는 문서들이 크기의 차이가 적은 문서에 의해 교체되는 것을 막을 수 있다. 성능 평가를 통해 제안한 교체 알고리즘이 다른 기법에 비해 높은 hit ratio를 나타냄을 보여준다.

네트워크 응답시간을 고려한 웹 캐시 교체 정책 (A Web Cache Replacement Policy in Consideration of Netwok Response Time)

  • 신은희;서진모;신승훈;박승규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.133-135
    • /
    • 2003
  • 최근 인터넷 기반 서비스 환경의 질적개선과 이에 따른 이용자 증가에 따라. 오디오나 동영상과 같은 규모가 크고 동적 특성을 가진 웹 컨텐츠의 수가 증가하는 추세이다. 이에 따라 'hit ratio' 뿐만 아니라 오브젝트의 크기를 기반으로 하는 'byte hit ratio' 또한 캐시 성능을 평가하는 중요한 측정 요소가 되었다. 이러한 측정기준을 대상으로 할 때, 기존의 웹 캐시 교체 정책중 HP연구소의 GDSF (Greedy-Dual-Size with Frequency)알고리즘과 LFU-DA(LFU with Dynamic Aging)알고리즘이 우수한 성능을 보이는 것으로 알려져있는데, 이러한 기존의 웹 캐시 교체 정책은 서버와의 네트워크 상태를 고려하지 않은 정책이고, 이에 따라 네트워크 상태에 따른 전송비용의 차이를 반영하지 못하고 있다. 따라서 본 논문에서는 서버와 웹 캐시 간의 네트워크 상태를 반영할 수 있는 캐시 교체 정책을 제안하고, 이에 대한 실험을 수행하였으며, 그 결과 사용자의 요구에 대한 응답시간의 감소 효과를 얻을 수 있었다.

  • PDF

프로세서 지역성에 기반 한 원격 캐시 교체 정책 (Remote Cache Replacement Policy based on Processor Locality)

  • 한상윤;곽종옥;전주식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (1)
    • /
    • pp.4-6
    • /
    • 2004
  • 본 논문에서는 원격 캐쉬를 추가시킨 분산 메모리 구조 다중 프로세서 시스템의 성능 향상을 위해 새로운 원격 캐쉬 교체 정색을 제안한다. 일반적으로 다중 계층 내포성(MLI)을 치키는 다중 계층 메모리 구조에서 LRU 교체 정책을 사용할 경우, 상위 계층 캐쉬의 LRU 정보와 하위 계층 캐쉬의 LRU 정보가 서로 상이함으로 인해 하위 계층 캐쉬에서의 교체가 상위 계층에서 사용 중인 캐처 라인의 교체를 발생시켜 전체 시스템의 성능을 저하시키는 원인이 된다. 이러한 LRU 캐쉬 교체 정책의 단점을 보완하고자 각 노드 당 프로세서들의 원격 메모리 접근 지역성을 이용한 원격 캐쉬 교체정책의 사용으로 상위 캐쉬의 유용한 캐쉬 라인의 접근 실패율을 감소시킴으로써 다중 프로세서 시스템의 성능 향상을 꾀한다. 프로그램 기반 시뮬레이터를 통해 제안한 원격 캐쉬 교체 정책을 적용하였을 때, 기존의 LRU 교체 정책과 비교하여 무효화 수와 캐쉬 접근 실패가 평균 5%. 최대 10% 감소하였다.

  • PDF

웹 지리정보시스템을 위한 확률 기반의 타일 프리페칭과 캐쉬대채 알고리즘의 성능평가 (Performance Study of Probability-based Tile Pre-fetching and Cache Replacement Algorithms for Web Geographical Information Systems)

  • 강용균;김기창;김유성
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.139-141
    • /
    • 2001
  • 기존의 웹 지리정보시스템에서 전송되는 지리 데이타의 단위가 매우 크기 때문에 사용자들은 지도의 긴초기로딩시간과 늦은 응답시간동안 기다려야 했다. 지리정보시스템에서 기존 연구들은 타일과 레이어의 개념을 이용하여 지도의 긴 초기로딩시간을 최적화하는데 초점을 맞추고 있으나 사용자들의 응답시간을 줄이는 연구는 상대적으로 적었다. 응답시간을 줄이기 위해서 일반적으로 서버로부터 사용자가 앞으로 사용하게 될 타일들을 미리 예측하여 클라이언트로 가져다 놓는 프리패칭 메카니즘을 사용한다. 본 논문에서는 확률기반 모델로 표현된 사용자의 타일접근패턴을 이용하여 앞으로 사용될 타일을 정확하게 예측하여 응답시간을 줄이는 프리패칭 알고리즘과 이와 연동하는 캐쉬대체정책을 제안했다. 제안된 알고리즘을 시뮬레이션을 통해 실험해 본 결과 사용자 응답시간이 36%~40%정도 빨라지는 성능향상을 보였다.

  • PDF

데이터 쓰기 패턴 분석을 통한 비휘발성 메모리 기반 딥러닝 시스템의 수명 연장 기법 (Lifetime Extension Method for Non-Volatile Memory based Deep Learning System by analyzing Data Write Pattern)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제21권3호
    • /
    • pp.1-6
    • /
    • 2022
  • Modern computer systems usually have special hardware for operations used in deep learning workload even edge computing environment. Non-volatile memories (NVMs) have been considered for alternative memory storage because they consume little static energy and occupy small area. However, there is a problem for NVMs to be directly adopted. An NVM cell has limited write endurance, so that the lifetime of NVM-based memory system is much shorter than that of conventional memory system. To overcome this problem for the deep learning system, this paper proposes a novel method to extend the lifetime based on the analysis of the deep learning workloads. If an incoming block has more than a predefined number of frequently used values, the cacheline is defined as write friendly block. During the victim selection, the cacheline has lower possibility to be chosen as victim. The experimental results show that the lifetime is increased by about 50% and energy consumption is decreased by 3% with a little performance hurt.

데이터 방송 환경에서의 효율적인 캐슁 정책 (An Efficient Caching Strategy in Data Broadcasting)

  • 김수연;최양희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권12호
    • /
    • pp.1476-1484
    • /
    • 1999
  • TV 방송 분야에서 다양한 정보와 상호 작용성을 제공하기 위해서 최근 기존 방송 내용인 A/V 스트림 외 부가정보 방송이 시도되고 있다. 데이타 방송에 대한 기존 연구는 대부분 고정된 내용의 데이타를 방송하는 환경을 가정하고 있어서 그 결과가 방송 내용의 변화가 많은 환경에 부적합하다. 본 논문에서는 데이타에 대한 접근이 반복되지 않을 가능성이 높고 사용자 접근 확률을 예상하기 어려운 상황에서 응답 시간을 개선하는 방안으로 수신 데이타를 무조건 캐쉬에 반입하고 교체가 필요한 경우 다음 방송 시각이 가장 가까운 페이지를 축출하는 사용자 단말 시스템에서의 캐슁 정책을 제안하였다. 제안된 캐쉬 관리 정책은 평균적인 캐쉬 접근 실패 비용을 줄임으로써 사용자 응답 시간을 개선하며, 서로 다른 스케줄링 기법을 사용하는 다양한 방송 제공자가 공존하는 환경에서 보편적으로 효과를 가져올 수 있다.Abstract Recently, many television broadcasters have tried to disseminate digital multimedia data in addition to the traditional content (audio-visual stream). The broadcast data need to be cached by a client system, to provide a reasonable response time for a user request. Previous studies assumed the dissemination of a fixed set of items, and the results are not suitable when broadcast items are frequently changed. In this paper, we propose a novel cache management scheme that chooses the replacement victim based on the remaining time to the next broadcast instance. The proposed scheme reduces response time, where it is hard to predict the probability distribution of user accesses. The caching policy we present here significantly reduces expected response time by minimizing expected cache miss penalty, and can be applied without difficulty to different scheduling algorithms.