• 제목/요약/키워드: Trace cache

검색결과 45건 처리시간 0.021초

Performance Impact of Large File Transfer on Web Proxy Caching: A Case Study in a High Bandwidth Campus Network Environment

  • Kim, Hyun-Chul;Lee, Dong-Man;Chon, Kil-Nam;Jang, Beak-Cheol;Kwon, Tae-Kyoung;Choi, Yang-Hee
    • Journal of Communications and Networks
    • /
    • 제12권1호
    • /
    • pp.52-66
    • /
    • 2010
  • Since large objects consume substantial resources, web proxy caching incurs a fundamental trade-off between performance (i.e., hit-ratio and latency) and overhead (i.e., resource usage), in terms of caching and relaying large objects to users. This paper investigates how and to what extent the current dedicated-server based web proxy caching scheme is affected by large file transfers in a high bandwidth campus network environment. We use a series of trace-based performance analyses and profiling of various resource components in our experimental squid proxy cache server. Large file transfers often overwhelm our cache server. This causes a bottleneck in a web network, by saturating the network bandwidth of the cache server. Due to the requests for large objects, response times required for delivery of concurrently requested small objects increase, by a factor as high as a few million, in the worst cases. We argue that this cache bandwidth bottleneck problem is due to the fundamental limitations of the current centralized web proxy caching model that scales poorly when there are a limited amount of dedicated resources. This is a serious threat to the viability of the current web proxy caching model, particularly in a high bandwidth access network, since it leads to sporadic disconnections of the downstream access network from the global web network. We propose a peer-to-peer cooperative web caching scheme to address the cache bandwidth bottleneck problem. We show that it performs the task of caching and delivery of large objects in an efficient and cost-effective manner, without generating significant overheads for participating peers.

이기종 저장 장치 환경을 위한 버퍼 캐시 관리 기법 (An Efficient Buffer Cache Management Scheme for Heterogeneous Storage Environments)

  • 이세환;고건;반효경
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제37권5호
    • /
    • pp.285-291
    • /
    • 2010
  • 플래시 메모리는 하드 디스크에 비해 크기가 작고 물리적 충격에 강하며 전력 소모가 적은 점 등 많은 장점을 가지고 있지만 아직까지 단위 공간당 가격이 높아 하드 디스크를 전면 대체하기는 어려운 실정이다. 최근 노트북 컴퓨터 동 일부 모바일 장치에서는 하드 디스크와 플래시 메모리를 함께 사용하여 두 매체의 장점을 극대화하려는 시도가 이루어지고 있다. 하지만 기존 운영체제는 이기종 저장 장치 환경이 아닌 단일 저장 장치 환경에 최적화되어 이러한 장점을 충분히 살리지 못하고 있다. 본 논문에서는 이를 해결하기 위해 세 가지 기법을 이용하는 새로운 버퍼 캐시 관리 기법을 제안한다. 첫째, 입출력 접근 패턴을 탐지하고 블록의 저장 위치 별 성능 특성을 분석한 후 동적 한계 효용에 근거하여 버퍼 캐시 공간을 할당한다. 둘째, 입출력 접근 패턴과 저장 장치 특성에 따라서 선택적으로 선반입 기법을 적용한다. 셋째, 버퍼 캐시에서 저장 장치로 쫓겨날 때 해당 블록의 접근 패턴에 따라 하드 디스크와 플래시 메모리 중 더 적합한 매체를 결정하고 그 매체에 블록이 저장되도록 한다. 제안하는 기법들을 트레이스 기반 시뮬레이션으로 검증한 결과 기존 기법에 비해 버퍼 캐시 적중률은 29.9%, 총 실행시간은 49.5% 향상되었다.

웹 프락시 서버를 위한 적응형 캐시 교체 정책 (An Adaptive Cache Replacement Policy for Web Proxy Servers)

  • 최승락;김미영;박창섭;조대현;이윤준
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권6호
    • /
    • pp.346-353
    • /
    • 2002
  • 월드 와이드 웹 사용의 폭발적인 증가는 네트워크 트래픽과 서버 부하의 급격한 증가를 초래 하였다. 이러한 문제를 해결하기 위해 웹 프락시 캐싱 기술은 빈번히 요청되는 웹 문서를 사용자와 인접한 위치에 설치된 프락시(proxy)에 저장한다. 캐시 성능을 결정짓는 가장 중요한 요소는 캐시 교체 정책으로서, 가까운 미래에 빈번히 요청될 문서들을 저장하기 위해 사용된다. 캐시 교체 정책이 문서의 인기도를 정확히 예측하기 위해서는 웹 프락시 워크로드의 특성을 반영하는 것이 중요하다. 시간 지역성과 Zipf 빈도 분포는 웹 프락시 워크로드에서 빈번히 관찰되는 특성으로서 문서의 인기도를 예측하기 위한 중요한 속성들이다. 본 논문은 1) LFU를 기반으로 하여 Zipf 빈도 분포를 반영하며, 2) 문서들의 시간에 따른 인기도 감소를 효율적으로 측정하여 시간 지역성을 적응적으로 반영하는 적응형 LFU(ALFU) 캐시 교체 정책을 제안한다. 트레이스 기반의 모의 실험을 통해 다른 교체 정책들과 ALFU를 비교 분석한다. 실험 결과, ALFU는 다른 교체 정책보다 우수한 성능을 보였다.

HiPi-bus 구조의 다중 프로세서 시스템에서의 잠금장치 (A Lock Mechanism for HiPi-bus Based Multiprocessor Systems)

  • 윤용호;임인칠
    • 전자공학회논문지B
    • /
    • 제30B권2호
    • /
    • pp.33-43
    • /
    • 1993
  • Lock mechanism is essential for synchronization on the multiprocessor systems. Lock mechanism needs to reduce the time for lock operation in low lock contention. Lock mechanism must consider the case of the high lock contention. The conventional lock control scheme in memory results in the increase of bus traffic and memory utilization in lock operation. This paper suggests a lock scheme which stores the lock data in cache and manages it efficiently to reduce the time spent in lock operation when the lock contention is low on a multiprocessor system built on HiPi-bus(Highly Pipelined bus). This paper also presents the design of the HIPi-CLOCK (Highly Pipelined bus Cache LOCK mechanism) which transfere the data from on cache to another when the lock contention is high. The designed simulator compares the conventional lock scheme which controls the lock in memory with the suggested HiPi-CLOCK scheme in terms of the RMW(Read-Modify-Write) operation time using simulated trace. It is shown that the suggested lock control scheme performance is over twice than that of the conventional method in low lock contention. When the lock contention is high, the performance of the suggested scheme increases as the number of the shared lock data increases.

  • PDF

소프트웨어 RAID 파일 시스템에 작은 쓰기와 참조 횟수를 고려한 캐쉬 교체 정책 (Cache Replacement Policies Considering Small-Writes and Reference Counts for Software RAID Systems)

  • 김종훈;노삼혁;원유헌
    • 한국정보처리학회논문지
    • /
    • 제4권11호
    • /
    • pp.2849-2860
    • /
    • 1997
  • 본 논문에서는 소프트웨어 RAID 파일 시스템에서 효율적인 캐쉬 교체 정책들을 제안한다. 그리고 이와 기존의 캐쉬 교체 정책을 소프트웨어 RAID 파일 시스템에 적용한 정책들과의 성능을 다양한 환경에서 비교한다. 실험을 통해 우선 소프트웨어 RAID 파일 시스템에서 작은 쓰기 동작은 성능을 크게 저하시키는 요소임을 확인한다. 이러한 작은 쓰기 동작을 줄이는 캐쉬 교체 정책들을 제안한다. 이러한 교체 정책들에 대한 성능 비교는 트레이스 기반 시뮬레이션에 의해 수행된다. 실험 결과를 통해 본 논문에서 제안한 교체 정책들이 기존의 정책들 비해 효율적인 성능을 나타냄을 확인한다.

  • PDF

NLANR 트레이스를 이용한 웹 캐쉬의 트래픽 분석 (An Analysis on the Web Cache Traffic Using NLANR Trace)

  • 두선미;백윤철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (A)
    • /
    • pp.106-108
    • /
    • 2001
  • 월드 와이드 웹은 인터넷을 이용한 정보 교환의 대표적 수단이지만 유명 웹 서버의 경우에는 웹 클라이언트들의 요청이 폭주하여 병목현상이 생기고 이로 인한 사용자 측면의 서비스 지연은 심각한 수준이다. 이에 대한 현실적인 대안으로 인터넷상의 중요 위치에 웹 문서의 복사본을 두어 웹 서버의 부담을 줄이고, 동시에 사용자에 대한 응답시간을 개선하는 웹 캐쉬가 대두되었다. 본 논문에서는 전세계적인 웹 캐쉬 프로젝트인 NLANR(National Laboratory for Applied Network Research)의 최상위 캐쉬들로부터 생성된 로그를 이용하여 웹 캐쉬 트래픽의 특성들에 관해 정리하고 이들을 분석하여 웹 캐쉬에서의 응답시간 개선 방향을 제시하였다.

가상주소 변환 과정에 대한 부담의 줄임 (Peducing the Overhead of Virtual Address Translation Process)

  • 우종정
    • 한국정보처리학회논문지
    • /
    • 제3권1호
    • /
    • pp.118-126
    • /
    • 1996
  • 메모리의 계층적 구조는 메모리의 접근 속도를 개선하고 프로그래밍 공간을 확장 하는데 유용한 메카니즘이다. 그러나 이 구조는 데이타의 참조를 위해서 적어도 두번- 주소 변환을 위한 TLB 와 원하는 데이타를 위한 데이타 캐시-의 메모리 접근이 필요하다. 만약 캐시의 크기가 가상 메모리의 페이지 크기와 캐시 메모리의 연관 정도의 곱보다 커지면 TLB접근과 데이타 캐시의 접근을 병렬로 수행하기 어려우며, 따라서 프로세서 타이밍의 임계 경로가 길어져 성능에 영향을 미친다. 이들의 병렬 접근을 성취하기 위하여 직접 사상 TLB와 조그마한 완전 연관 사상 TLB를 결합하나 혼합 사상 TLB를 제 안한다. 전자는 TLB 접근에 따른 지연시간을 줄 일 수 있으며 후자는 전자로부터 발생한 충돌 부재를 제거할 수 있게 된다. 트레이스 구동 모의 실험 결과에 의하면 제안된 TLB 는 4개의 엔트리로만 구성된 완전사상 TLB를 추가하더라도 부재율의 상승에 의한 영향이 주소변환에 따른 지연시간 축소에 위하여 상쇄되므로 효과적이다.

  • PDF

모바일기기의 동작모드와 대기모드를 모두 고려한 저전력 3차원 그래픽 가속기 (A Low Power 3D Graphics Accelerator Considering Both Active and Standby Modes for Mobile Devices)

  • 김영식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제34권2호
    • /
    • pp.57-64
    • /
    • 2007
  • 본 논문에서는 모바일 3D 그래픽 가속기의 저전력 텍스쳐 캐쉬 구조를 제안하였다. 모바일 3D 그래픽 가속기는 동작모드에서 대규모 메모리 접근이 필요한 텍스쳐 매핑의 메모리 지연시간을 감소하고 대기모드에서 누설 전력소비를 줄이는 것이 매우 중요하다. 제안하는 텍스쳐 캐쉬 구조는 응용 프로그램의 텍스쳐 필터링 알고리즘에 따라서 가변적인 전력 모드 전환 기준으로 동작하여 누설전력을 줄이고 동작시간의 이득을 얻는다. 제안한 구조의 성능 검증을 위하여 트레이스 기반 텍스쳐 캐쉬 시뮬레이션을 수행하여 누설전력과 수행시간을 모두 고려한 성능 척도에서 이전 연구인 MSA 캐쉬보다 최대 7%의 성능 이득을 얻었다.

WWCLOCK: 플래시 메모리의 비대칭적 입출력 비용을 고려한 페이지 교체 알고리즘 (WWCLOCK: Page Replacement Algorithm Considering Asymmetric I/O Cost of Flash Memory)

  • 박준석;이은지;서현민;고건
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권12호
    • /
    • pp.913-917
    • /
    • 2009
  • 낸드 플래시 메모리는 하드디스크와 달리 읽기 입출력과 쓰기 입출력이 소모하는 시간 및 전력량이 다르며 그 비율은 SLC, MLC, SSD 등 다양한 형태에 따라 상이하다. 특히 최근에는 내장 메모리 장치와 함께 외장 메모리 카드 또는 USB 메모리를 동시에 사용하는 경우도 증가하고 있어서, 버퍼 캐시 교체 알고리즘을 설계하는 데 있어서 페이지의 재참조 확률뿐 만 아니라 접근 장치와 참조 종류에 따른 입출력 비용을 함께 고려해야 한다. 본 논문은 페이지의 참조 빈도(frequency), 최근성(recency) 정보와 함께 인기와 쓰기의 입출력 비용을 직접적으로 고려하는 WWCLOCK (Write-Weighted CLOCK) 알고리즘을 제안한다. WWCLOCK은 입출력 비용이 다른 다양한 2차 저장 장치에 대해 적용 가능하며, CLOCK에 가까운 낮은 시간 및 공간 복잡도를 갖고 있다. 트레이스 기반 시뮬레이션을 통해 제안된 알고리즘이 LRU 알고리즘에 비해 전체 입출력 실행 시간을 평균 36.2% 감소시킴을 보인다.

압축블록의 압축률 분포를 고려해 설계한 내장캐시 및 주 메모리 압축시스템 (An On-chip Cache and Main Memory Compression System Optimized by Considering the Compression rate Distribution of Compressed Blocks)

  • 임근수;이장수;홍인표;김지홍;김신덕;이용석;고건
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권1_2호
    • /
    • pp.125-134
    • /
    • 2004
  • 최근에 프로세서-메모리간 성능격차 문제를 완화하기 위하여 내장캐시의 접근실패율을 낮추고 메모리 대역폭을 확장하는 내장캐시 압축시스템이 제안되었다. 내장캐시 압축시스템은 데이타를 압축해 저장함으로써 내장캐시의 실질적 저장공간을 확장하고, 메모리 버스에서 데이타를 압축해 전송함으로써 실질적 메모리 대역폭을 확장한다. 본 논문에서는 이와 같은 내장캐시 압축시스템을 확장해 기존의 주 메모리 압축시스템과 병합해 설계한 이종 메모리 압축시스템을 제안한다. 주 메모리의 기억공간을 효율적으로 확장하고, 내장캐시의 접근실패율을 낮추고, 메모리 대역폭을 확장하고, 압축캐시의 복원시간을 줄이고, 설계 복잡도를 낮추기 위하여 몇 가지 새로운 기법들을 제시한다. 제안하는 시스템과 비교대상 시스템의 성능은 슈퍼스칼라 구조의 마이크로프로세서 시뮬레이터를 수정하여 실행기반 시뮬레이션을 통해 검증한다. 본 논문에서 사용한 실험방법은 기존의 트레이스기반 시뮬레이션과 비교해 보다 높은 정확도를 갖는다. 실험결과 주 메모리 확장에 따른 이득을 고려하지 않은 경우에 제안하는 시스템은 일반 메모리시스템에 비하여 수행시간을 내장캐시의 크기에 따라 최대 4-23%가량 단축한다. 제안하는 시스템의 데이타 메모리와 코드 메모리의 확장비율은 각각 57-120%와 27-36%이다.