• Title/Summary/Keyword: cache scheme

검색결과 273건 처리시간 0.027초

수 평형 이진트리를 이용한 디렉토리 캐쉬 일관성 유지 기법 (Directory Cache Coherence Scheme using the Number-Balanced Binary Tree)

  • 서대화
    • 한국정보처리학회논문지
    • /
    • 제4권3호
    • /
    • pp.821-830
    • /
    • 1997
  • 디렉토리 기반의 캐쉬 일관성 유지 기법은 대규모 공유메모리 다중처리기에서 캐쉬 일관성 문제를 해결하기 위한 방법이다. 이제까지 기존 기법들은 디렉토리기 위해서 많은 메모리 요구와 긴 무효화 시간, 네트웍 통신량의 집중, 그리고 낮은 확장성 등의 문제점들을 가지고 있다. 본 논문에서는 이런 문제점을 해결하면서 확장성을 가진 새로운 디렉토리 기반의 캐쉬 일관성 유지 기법을 제안하였다. 이 기법에서는 새롭게 제안한 수 평형 이진 트리를 사용하였다. 수 평형 이진 트리는 디렉토리에 있는 노드 수에 따라모양이 일정하고, 최대 깊이가[log$_2$n]이며, 같은 노드 개수를 가진 이진 트리 중에서 가장 작은 단말 노드 수는 가지는 특성이 있다 이러한 특성은 캐쉬 디렉 토리의 메모리량, 무효화 시간 및 네트웍 통신량을 최소로 해 주고, 다중처리기의 높은 확정성을 보장해 준다.

  • PDF

Multi-path Routing Policy for Content Distribution in Content Network

  • Yang, Lei;Tang, Chaowei;Wang, Heng;Tang, Hui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2379-2397
    • /
    • 2017
  • Content distribution technology, which routes content to the cache servers, is considered as an effective method to reduce the response time of the user requests. However, due to the exponential increases of content traffic, traditional content routing methods suffer from high delay and consequent inefficient delivery. In this paper, a content selection policy is proposed, which combines the histories of cache hit and cache hit rate to collaboratively determine the content popularity. Specifically, the CGM policy promotes the probability of possible superior paths considering the storage cost and transmission cost of content network. Then, the content routing table is updated with the proportion of the distribution on the paths. Extensive simulation results show that our proposed scheme improves the content routing and outperforms existing routing schemes in terms of Internet traffic and access latency.

Improving Energy Efficiency and Lifetime of Phase Change Memory using Delta Value Indicator

  • Choi, Ju Hee;Kwak, Jong Wook
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제16권3호
    • /
    • pp.330-338
    • /
    • 2016
  • Phase change memory (PCM) has been studied as an emerging memory technology for last-level cache (LLC) due to its extremely low leakage. However, it consumes high levels of energy in updating cells and its write endurance is limited. To relieve the write pressure of LLC, we propose a delta value indicator (DVI) by employing a small cache which stores the difference between the value currently stored and the value newly loaded. Since the write energy consumption of the small cache is less than the LLC, the energy consumption is reduced by access to the small cache instead of the LLC. In addition, the lifetime of the LLC is further extended because the number of write accesses to the LLC is decreased. To this end, a delta value indicator and controlling circuits are inserted into the LLC. The simulation results show a 26.8% saving of dynamic energy consumption and a 31.7% lifetime extension compared to a state-of-the-art scheme for PCM.

Performance Analysis of Adaptive Partition Cache Replacement using Various Monitoring Ratios for Non-volatile Memory Systems

  • Hwang, Sang-Ho;Kwak, Jong Wook
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권4호
    • /
    • pp.1-8
    • /
    • 2018
  • In this paper, we propose an adaptive partition cache replacement policy and evaluate the performance of our scheme using various monitoring ratios to help lifetime extension of non-volatile main memory systems without performance degradation. The proposal combines conventional LRU (Least Recently Used) replacement policy and Early Eviction Zone (E2Z), which considers a dirty bit as well as LRU bits to select a candidate block. In particular, this paper shows the performance of non-volatile memory using various monitoring ratios and determines optimized monitoring ratio and partition size of E2Z for reducing the number of writebacks using cache hit counter logic and hit predictor. In the experiment evaluation, we showed that 1:128 combination provided the best results of writebacks and runtime, in terms of performance and complexity trade-off relation, and our proposal yielded up to 42% reduction of writebacks, compared with others.

무선 인터넷 프록시 서버 클러스터 시스템에서 라운드 로빈을 이용한 해싱 기법 (A Hashing Scheme using Round Robin in a Wireless Internet Proxy Server Cluster System)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제13A권7호
    • /
    • pp.615-622
    • /
    • 2006
  • 무선 인터넷 프록시 서버 클러스터 환경에서의 캐싱은 인터넷 트래픽, 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해쉬 함수를 이용하여 동일 요청 URL을 동일 캐시에 할당하는 방법이다. 해싱을 이용한 방법의 문제점은 해쉬의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 시스템의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 해싱과 라운드 로빈 방식의 장점을 결합하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 개선된 부하 분산 방법을 제안한다. 기존 해싱 방법에서는 요청 URL에 대한 해쉬값이 계산되면 캐시 서버가 컴파일 시간에 정적으로 할당되는 반면, 제안된 방법에서는 라운드 로빈 방법을 사용하여 실행 시간에 동적으로 할당된다. 제안된 방법은 무선 인터넷 프록시 서버 클러스터 환경에서 구현되었고, 16대의 컴퓨터를 이용하여 실험을 수행하였다. 실험 결과는 기존 해싱 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고, 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 52%에서 112%까지 향상됨을 확인하였다.

복수 캐시로 구성한 미디어 프로세서의 설계 (Design of A Media Processor Equipped with Dual Cache)

  • 문현주;전중남;김석일
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권10호
    • /
    • pp.573-581
    • /
    • 2002
  • 본 논문에서는 미디어 프로세서에서 메모리 지연으로 인한 성능 저하를 방지하기 위하여 멀티미디어 데이타 캐시와 일반 데이타 캐시로 구성된 이중 캐시 구조의 미디어 프로세서를 제안하였다. 제안된 프로세서에서는 응용 프로그램에서 서브워드 명령으로 표현되는 멀티미디어 데이타를 멀티미디어 캐시에 적재하고 나머지 데이타를 일반 데이타 캐시에 적재하도록 하였다. 또한 멀티미디어 데이타 캐시는 멀티미디어 데이타의 높은 지역성을 활용하도록 2개의 데이타 블록을 동시에 인출하는 선인출 기법을 적용하였다. MPEG과 JPEG 벤치마크에 대한 실험 결과, 제안한 프로세서의 캐시구조가 단일 캐시 구조에 비하여 성능이 우수하였다.

저전력과 응답시간 향상을 위한 하이브리드 하드디스크의 입출력 기법 (I/O Scheme of Hybrid Hard Disk Drive for Low Power Consumption and Effective Response Time)

  • 김정원
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.23-31
    • /
    • 2011
  • 최근 전력소모와 읽기 성능이 우수한 Solid state disk(SSD)가 많이 사용되고 있으나 가격이 고가이고 삭제 및 쓰기 연산의 효율이 낮은 것이 단점이다. 이것을 보완하기 위한 저장장치의 일종이 하이브리드 하드디스크 (H-HDD: Hybrid Hard disk drive)인데 하드디스크 내부에 플래시 메모리(NVCache: Non-volatile Cache)를 장착하여 디스크블록의 캐시로 사용한다. 본 논문에서는 H-HDD의 저전력과 응답시간을 향상시키기 위해 NVCache의 선반입 및 관리 기법을 제안한다. 제안하는 기법은 NVCache를 읽기 캐시를 위주로 사용하고 쓰기캐시는 디스크 헤드와 스핀들의 상황에 따라 쓰기 연산을 지원한다. 읽기 캐시의 경우 시간적, 지역적 지역성을 동시에 고려하여 선반입을 통해 응답시간과 전력 소모를 감소시키고 쓰기 캐시의 경우 디스크 스핀들의 동작 상태에 따라 NVCache에 쓰기를 실시하여 저전력과 응답성을 향상시키고자한다.

모바일 지도 서비스를 위한 에이전트 기반의 공간 데이터 캐쉬의 설계 및 구현 (Design and Implementation of the Spatial Data Cache Based on Agents for Providing Mobile Map Services)

  • 임덕성;이재호;홍봉희
    • 정보처리학회논문지D
    • /
    • 제10D권2호
    • /
    • pp.175-186
    • /
    • 2003
  • PDA와 같은 무선단말기에서 지도 데이터에 대한 검색 및 접근을 위해 영역단위의 캐쉬와 R-tree 기반의 공간색인이 필요하다. 그러나 서버로부터 낮은 저장용량의 무선단말기에 전송되는 공간객체는 캐쉬된 공간 객체와 중복되는 문제가 있다. 또한 추가되는 데이터를 저장하고, 효율적인 공간 질의를 위한 색인 재구축 비용은 낮은 컴퓨팅 파워를 가진 무선단말기에 부하를 준다. 따라서 낮은 컴퓨팅 파워를 가진 무선단말기의 부하를 분산시키는 방법과 중복객체의 처리기법이 필요하다. 이 논문에서는 먼저 캐슁시 중복 객체에 대한 처리기법을 분류하고, 클리핑기밥을 사용한 공간 객체 저장과 색인 재구성방법을 분석한다. 또한, 무선단말기에 집중된 부하를 분산시키기 위해 색인구성 및 클리핑 작업을 에이전트에서 처리하는 에이전트 기반 캐슁시스템을 제시한다. 그리고, 제시한 시스템을 설계 및 구현하고, 성능을 평가한다.

플래시 메모리 데이터베이스를 위한 플래시인지 트랜잭션 관리 기법 (Flash-Aware Transaction Management Scheme for flash Memory Database)

  • 변시우
    • 인터넷정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.65-72
    • /
    • 2005
  • 플래시 메모리는 이동형 컴퓨팅 환경에서 휴대용 정보기기를 지원하는 우수한 미디어이다. 플래시 메모리는 비휘발성, 낮은 전력소모, 빠른 데이터 접근 속도 등의 특징으로 휴대용 정보기기용 데이터베이스의 핵심 저장 모듈이 되었다. 하지만, 일반 RAM 메모리에 비하여 상대적으로 느린 연산 특성을 고려하여 기존의 트랜잭션 처리 기법을 개선할 필요가 있다. 이를 위하여, 본 논문은 플래시인지 트랜잭션 관리(Flash-Aware Transaction Management: FATM) 기법을 제안한다. FATM은 SRAM과 W-cache를 활용하여 트랜잭션 처리 성능을 높인다. 또한, 성능 검증을 위하여 시뮬레이션 모델을 제안하였으며, 실험 결과 분석을 통하여 FATM이 기존의 트랜잭션 처리 기법보다 우수함을 확인하였다.

  • PDF

모바일 웹 서비스를 위한 요소분할 캐싱 기법 (Separate Factor Caching Scheme for Mobile Web Service)

  • 심근정;강의선;김종근;고희애;임영환
    • 정보처리학회논문지D
    • /
    • 제14D권4호
    • /
    • pp.447-458
    • /
    • 2007
  • 본 논문은 기존의 Mobile Gate System에서 모바일 웹 서비스를 위해 사용하던 Contents Cache 의 성능을 향상시킴으로 보다 더 빠르게 모바일 웹 서비스를 하는 데 그 목적을 두고 있다. Contents Generator에 의해 변환된 마크-업 페이지에는 두 요소가 존재함을 알 수 있었다. 하나의 요소는 단지 요청된 DIDL 페이지와 마크-업 종류에만 의존적인 것이었고, 다른 하나의 요소는 요청된 DIDL 페이지, 마크-업 종류, 서비스를 요청한 모바일 장치의 Display 크기, 지원되는 이미지 형식, 지원되는 이미지의 색 심도 수에 각각 의존적이었다. 기존의 Contents Cache는 이렇게 두 요소를 함께 가진 마크-업 페이지 전체를 모두 저장했다. 이는 다른 요소들이 모두 같다 하더라도 하나의 요소가 달라지면 그 요소 때문에 재사용 가능한 요소들까지 Cache 메모리 영역에 중복 저장함으로써 저장 공간을 효율적으로 사용하지 못하게 하는 문제를 발생시켰다. 이 때문에 동일한 Cache 메모리 크기 하에 더 많은 변환된 마크-업 페이지를 저장할 수 있었음에도 그렇게 하지 못했다. 따라서 본 논문에서는 Contents Generator에 의해 변환된 마크-업 페이지를 두 요소로 나누고 각각을 분류하여 저장하였다. 또한 Cache 내의 데이터와 신규 데이터간의 대체 요구에 응하기 위해 LFU, LRU 두 대체 알고리즘을 적용하였다. 이를 통해 동일한 Cache 저장 공간 내에 더 많은 변환된 마크-업 페이지를 저장하게 함으로 더 빠른 속도의 Cache 성능을 구현할 수 있는 방법을 제안하였다.