• 제목/요약/키워드: Cache System

검색결과 457건 처리시간 0.03초

무선 인터넷 프록시 서버 클러스터 시스템에서 라운드 로빈을 이용한 해싱 기법 (A Hashing Scheme using Round Robin in a Wireless Internet Proxy Server Cluster System)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제13A권7호
    • /
    • pp.615-622
    • /
    • 2006
  • 무선 인터넷 프록시 서버 클러스터 환경에서의 캐싱은 인터넷 트래픽, 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해쉬 함수를 이용하여 동일 요청 URL을 동일 캐시에 할당하는 방법이다. 해싱을 이용한 방법의 문제점은 해쉬의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 시스템의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 해싱과 라운드 로빈 방식의 장점을 결합하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 개선된 부하 분산 방법을 제안한다. 기존 해싱 방법에서는 요청 URL에 대한 해쉬값이 계산되면 캐시 서버가 컴파일 시간에 정적으로 할당되는 반면, 제안된 방법에서는 라운드 로빈 방법을 사용하여 실행 시간에 동적으로 할당된다. 제안된 방법은 무선 인터넷 프록시 서버 클러스터 환경에서 구현되었고, 16대의 컴퓨터를 이용하여 실험을 수행하였다. 실험 결과는 기존 해싱 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고, 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 52%에서 112%까지 향상됨을 확인하였다.

PMS : 다단계 저장장치를 고려한 효율적인 선반입 정책 (PMS : Prefetching Strategy for Multi-level Storage System)

  • 이규형;이효정;노삼혁
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권1호
    • /
    • pp.26-32
    • /
    • 2009
  • 저장장치를 다단계로 구성하여 효율적으로 많은 사용자의 요청을 동시에 처리하는 다단계 저장장치의 활용은 점차 늘어나고 있다. 저장 장치가 다단계로 발전하여, 매우 많은 데이타를 효과적으로 처리할 수 있게 되었으나, 디스크에 접근하기 위한 단계가 늘어남으로써 성능이 저하되는 문제가 발생한다. 현재까지는 메모리와 프로세스에 비해 느린 디스크 접근 속도를 완충하기 위해 선반입 정책이 매우 효과적이었다. 그러나 기존의 선반입 기법은 대부분 다단계로 구성된 저장장치는 고려하지 않기 때문에 다단계 저장장치에서 기존의 선반입 기법을 사용할 경우 큰 성능향상을 기대 할 수 없다. 본 연구에서는 네트워크로 연결된 다단계 저장장치에서 상위 레벨의 선반입 기법에 의존하지 않는, 넓은 용도로 사용할 수 있는, Prefetching Strategy for Multi-level Storage system(PMS)라 칭하는 하위 레벨 선반입 기법을 제안하였다. 이는 시스템의 사용자, 어플리케이션 혹은 상위 시스템과 독립적으로 동작하기 때문에 단지 하위 시스템의 선반입 정책으로 적용함으로써 쉽게 높은 성능을 사용할 수 있다. 또한 PMS 정책의 성능을 측정하기 위해 본 연구에서는 실제 시스템을 정교하게 흉내 내는 시뮬레이터를 개발하여 널리 쓰이는 두가지 트레이스를 이용한 서로 다른 32가지의 실험을 하였고, 기존의 선반입 정책을 하위 레벨에 적용한 시스템에 비해 PMS 정책을 하위 레벨에 적용할 경우, 모든 경우에서 성능향상을 확인 할 수 있었고, 최대 35%, 평균 16.56%의 평균 응답시간이 좋아짐을 보였다.

멀티미디어 객체 처리 성능 향상을 위한 웹 캐싱 (A Web Caching for Improvement of Processing Performance on a Multimedia Object)

  • 나윤지;고일석
    • 정보처리학회논문지A
    • /
    • 제11A권7호
    • /
    • pp.469-474
    • /
    • 2004
  • 웹 트래픽의 중가에 따라, 사용자에게 제공되는 웹 객체의 지연이 증가하고 있다. 웹 캐싱 웹 기반 시스템의 성능을 향상시키는 하나의 방법이며, 캐시 저장영역의 효율적인 관리를 위한 많은 연구가 활발히 이루어지고 있다. 웹의 성능을 평가하는 중요한 척도는 사용자가 원하는 웹 객체를 제공하는 속도라 할 수 있다. 또한 웹 캐싱의 중요한 이슈는 웹 객체의 효율적인 관리를 통한 캐싱 시스템의 효율 향상이다. 이를 위한 해결책은 웹 객체의 이질성을 고려한 캐싱 전략을 세우는 것이다. 본 연구에서는 멀티미디어 객체 처리의 성능 항상을 위한 웹 캐싱 기법을 제안한다. 제안 기법은 멀티미디어 객체의 이질성을 기반으로 하고 있으며, 멀티미디어 객체의 캐싱 효율을 높여 캐싱 시스템의 성능을 높이고자 하는 것이다. 또한 실험에서 제안 시스템의 성능 분석을 통해 캐싱 시스템의 성능 향상을 검증하였다.

듀얼 프로세서 기반 DPI (Deep Packet Inspection) 엔진을 위한 효율적 패킷 프로세싱 방안 구현 및 성능 분석 (Implementation and Performance Analysis of Efficient Packet Processing Method For DPI (Deep Packet Inspection) System using Dual-Processors)

  • 양준호;한승재
    • 정보처리학회논문지C
    • /
    • 제16C권4호
    • /
    • pp.417-422
    • /
    • 2009
  • 특화된 하드웨어의 도움 없이 범용 다중 프로세서 플랫폼에서 DPI(Deep Packet Inspection) 시스템을 구현하는 방법은 비용 측면에서 매력적이다. 문제는 성능인데, 일반적으로 다중 프로세서 시스템에서는 작업들을 여러 프로세서에 적절하게 배분하는 로드밸런싱 방법과 DPI 프로세싱 전용 개별 프로세서를 지정하여 시스템의 성능을 향상 시킨다. 그러나, 우리는 DPI 시스템의 경우 위와 같은 단순한 프로세서 통제 방안이 반드시 최선책이 아니라고 생각한다. 본 논문에서는 작업의 종류에 따라 정해진 프로세서에 할당한 후, 프로세서 상태에 따라 역할을 변경하는 방식을 제안한다. 우리는 제안하는 방식을 리눅스 기반 듀얼 프로세서 시스템에 구현하고 실험을 통해 그 성능을 기존의 로드밸런싱 방식과 비교하였다. 제안된 방식에서는 하나의 프로세서는 인터럽트 처리를 포함한 일반적 패킷 프로세싱 역할만을 담당토록 하고 다른 프로세서는 DPI엔진을 전담하도록 역할로 분리시켜 캐시접근실패 (cache miss) 과 스핀락(spin lock) 발생빈도를 낮추었으며, DPI 전담 프로세서가 처리한계에 이르렀을 경우에는 두 프로세서 모두 DPI를 위해 자원을 사용토록 하여, 기존의 리눅스 로드 밸런싱 방식 DPI 시스템 대비 약 60%의 성능향상을 달성하였다.

데이터베이스 공유 시스템에서 B-트리 인덱스를 위한 캐쉬 일관성 제어 (A Cache Coherency Control for B-Tree Indices in a Database Sharing System)

  • 온경오;조행래
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (1)
    • /
    • pp.36-38
    • /
    • 2000
  • 데이터베이스 공유 시스템(Database Sharing System: DSS)은 고성능 트랜잭션 처리를 위해 다수 개의 컴퓨터를 연동하는 방식으로, 각 노드들은 디스크 계층에서 데이터베이스를 공유한다. DSS에서 각 노드는 빈번한 디스크 액세스를 피하기 위해 최근에 액세스한 데이터 페이지와 인덱스 페이지들을 자신의 지역 메모리 버퍼에 캐싱한다. 이때 노드가 항상 최신의 페이지를 사용할 수 있기 위해서는 지역 버퍼에 캐싱된 페이지들의 일관성을 지원하여야 한다. 본 논문에서는 데이터 페이지에 비해 빈번히 엑세스되는 인덱스 페이지의 정확성을 보장할 수 있는 캐쉬 일관성 제어 기법을 제안한다.

  • PDF

병렬 파일 시스템에서 이중 캐쉬 구조 (Dual-Cache Scheme in Parallel File System)

  • 장원영;김재열;서대화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 추계학술발표논문집 (상)
    • /
    • pp.271-274
    • /
    • 2001
  • 프로세스와 디스크 입출력 속도를 비교해보면, 디스크 입출력의 속도가 휠씬 더 느리다. 따라서 디스크 입출력은 현재의 컴퓨팅 환경에서 병목현상이 되고있다. PFSL(Parallel File System for Linux)은 이런 문제를 해결하기 위한 클러스터링 환경의 병렬 파일 시스템이다. PFSL은 리눅스 머신 상에서 POSIX 스레드 라이브러리를 이용하여 멀티 스레드로 수행된다. 이 논문에서는 PFSL의 성능을 개선하기 위해 클러스터 환경의 작업 부하에 적합하도록 설계한 이중 캐쉬 구조를 소개하고자 한다.

  • PDF

4-Way 캐쉬의 선택된 Element를 이용한 향상된 동적 분기 예측기 구현 (An Improved Dynamic Branch Predictor by Selective Access of a Specific Element in 4-Way Cache)

  • 황인성;황선영
    • 한국통신학회논문지
    • /
    • 제38A권12호
    • /
    • pp.1094-1101
    • /
    • 2013
  • 본 논문은 4-Way 캐쉬의 선택된 element만을 사용하여 어플리케이션 수행 사이클을 줄인 향상된 동적 분기 예측기를 제안한다. 제안된 동적 분기 예측기는 분기명령어가 페치되면 MRU 버퍼를 참조하여 4-Way 캐쉬의 선택된 element에서 타깃 주소를 얻으므로, 모든 element에 접근하는 기존의 동적 분기 예측기보다 제한된 전력하에서 BTAC entry 수를 증가시킬 수 있어 분기 예측 성공률과 어플리케이션의 수행속도가 상당히 향상된다. 제안된 동적 분기 예측기의 효율성을 SMDL 시스템에 의해 생성된 코어가 벤치마크 어플리케이션을 수행하여 검증한다. 실험결과 동적 분기 예측기가 없는 코어에 비해 생성된 코어의 어플리케이션 수행 사이클은 평균 10.1% 감소하고 어플리케이션의 전력소모는 7.4% 증가한다. 기존 동적 분기 예측기를 사용하는 코어에 비해 수행 사이클은 평균 4.1% 줄어든다.

VANET에서 효율적이며 엄격한 데이터 일관성을 유지하는 캐쉬 관리 기법 (Efficient Cache Management Scheme with Maintaining Strong Data Consistency in a VANET)

  • 문성훈;박광진
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권5호
    • /
    • pp.41-48
    • /
    • 2012
  • 차량용 애드혹 네트워크 (VANET: Vehicular Ad-hoc Network)는 차량으로 구성된 모바일 애드혹 네트워크로서 기간망의 도움 없이 차량 간 통신을 가능하게 한다. VANET에서 차량 노드는 네트워크의 일원으로 참여하면서 에너지와 자원을 사용한다. 지금까지 VANET에서 질의처리시간과 통신 과부하를 줄이기 위하여 데이터 복제와 협력 캐슁이 연구되어 왔다. 또한 VANET에서 협력 캐슁 기법 관련 연구는 주로 약한 일관성에 중점을 두고 있다. 이 논문에서는 VANET에서 엄격한 데이터 일관성을 유지하면서 효율적인 캐쉬 관리가 가능한 기법을 제안한다. 본 논문에서는 강한 데이터 일관성을 유지하면서 질의 지연과 통신 과부하를 줄일 수 있도록 IR (Invalidation Report)을 방송하는 스케줄링 기법을 제안한다. 성능 평가는 제안한 기법이 질의 지연과 통신 과부하에서 강점을 가지고 있음을 보여준다.

CL 트리: 낸드 플래시 시스템에서 캐시 색인 리스트를 활용하는 B+ 트리 (CL-Tree: B+ tree for NAND Flash Memory using Cache Index List)

  • 황상호;곽종욱
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권4호
    • /
    • pp.1-10
    • /
    • 2015
  • 낸드 플래시는 기존의 하드디스크와 다르게 지움 연산이 필요하고 제자리 갱신이 불가능한 특성을 가지고 있어 플래시 전환 계층(FTL: Flash Translation Layer)을 사용한다. 하지만 플래시 전환 계층을 이용하는 방법은 사상 테이블의 사용에 따른 메모리 소비량이 많은 단점이 있어서 최근에는 사상 테이블을 사용하지 않는 색인 구조에 대한 연구가 많이 이루어지고 있다. 하지만 이러한 연구들은 사상 테이블을 사용하지 않는 시스템에서 발생되고 있는 업데이트 파생문제를 해결하여야 한다. 논문에서는 이러한 업데이트 파생문제를 효과적으로 해결하고자 CL-트리(Cache List Tree)라 명명된 새로운 색인 구조를 제안한다. 제안하는 기법은 메모리상에 쓰기 연산이 이루어진 노드들의 주소를 다중 리스트로 이루어진 CL-트리에 저장함으로써, 추가적인 쓰기 연산을 줄일 뿐만 아니라 자주 접근되는 노드에 대하여 빠르게 접근할 수 있기 때문에 탐색 측면에서도 뛰어난 성능을 보인다. 성능평가 결과 제안하는 CL-트리 구조는 작업 수행 속도에서 기존의 B+ 트리와 주요 관련 연구에 비해 삽입 속도는 최대 173%, 탐색 속도는 179% 향상되었음을 보였다.

A New Parameter Estimation Method for a Zipf-like Distribution for Geospatial Data Access

  • Li, Rui;Feng, Wei;Wang, Hao;Wu, Huayi
    • ETRI Journal
    • /
    • 제36권1호
    • /
    • pp.134-140
    • /
    • 2014
  • Many reports have shown that the access pattern for geospatial tiles follows Zipf's law and that its parameter ${\alpha}$ represents the access characteristics. However, visits to geospatial tiles have temporal and spatial popularities, and the ${\alpha}$-value changes as they change. We construct a mathematical model to simulate the user's access behavior by studying the attributes of frequently visited tile objects to determine parameter estimation algorithms. Because the least squares (LS) method in common use cannot obtain an exact ${\alpha}$-value and does not provide a suitable fit to data for frequently visited tiles, we present a new approach, which uses a moment method of estimation to obtain the value of ${\alpha}$ when ${\alpha}$ is close to 1. When ${\alpha}$ is further away from 1, the method uses the associated cache hit ratio for tile access and uses an LS method based on a critical cache size to estimate the value of ${\alpha}$. The decrease in the estimation error is presented and discussed in the section on experiment results. This new method, which provides a more accurate estimate of ${\alpha}$ than earlier methods, promises more effective prediction of requests for frequently accessed tiles for better caching and load balancing.