• 제목/요약/키워드: 캐시 중복

검색결과 26건 처리시간 0.022초

버퍼와 디스크 캐시 사이의 중복 캐싱을 제한하는 효율적인 알고리즘 (An Efficient Algorithm for Restriction on Duplication Caching between Buffer and Disk Caches)

  • 정수목
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제10권1호
    • /
    • pp.95-105
    • /
    • 2006
  • 기계적인 동작에 기반을 둔 디스크의 동작 특성 때문에 디스크의 속도는 처리기에 비하여 매우 느리다. 반도체기술의 발전으로 처리기의 속도 향상이 비약적으로 이루어지는 반면 디스크의 속도향상은 기계적인 동작특성 때문에 속도향상이 매우 제한적으로 이루어지고 있다. 따라서 컴퓨터시스템 전체의 성능향상을 이루이기 위하여 병목현상을 일으키는 디스크 입출력시스템의 성능을 개선할 수 있는 연구가 필수적이다. 처리기와 I/O subsystem의 속도차이를 해결하기 위한 하나의 기법으로 버퍼 캐시와 디스크 캐시를 두는 기법들이 사용되고 있다. 본 논문에서는 버퍼캐시와 디스크 캐시사이에 디스크 블록 중복을 제한하고, 재 참조 될 가능성이 높은 디스크 블록을 오랫동안 캐시에 유지하게 함으로 캐시 hit ratio를 높여 디스크 접근을 줄이고 신속하게 처리기에 디스크 블록을 서비스하여 시스템의 성능을 개선하는 효율적인 버퍼 캐시 및 디스크 캐시 관리기법을 제안하였고 시뮬레이션을 통하여 제안된 기법의 성능을 평가하였다.

  • PDF

가상화 환경을 위한 SSD 캐시 기반의 중복 제거 기법 (SSD Caching based De-Duplication for Virtualization Environment)

  • 강동우;김세욱;이남수;최종무;김준모
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(A)
    • /
    • pp.293-295
    • /
    • 2012
  • 가상화 기술은 물리적 컴퓨팅 자원을 사용자에게 논리적으로 제공하여 시스템의 효율성을 높이고 유연성을 향상시키기 위한 기술로 서버 통합이나 아마존 EC2와 같은 클라우드 컴퓨팅 환경에서 사용되고 있다. 이러한 가상화 환경에서는 다수의 가상머신들의 동시적인 I/O 수행으로 인해 저장장치에 병목현상이 발생된다. 또한 각 가상머신들의 중복된 데이터들을 저장하기 위해 불필요한 쓰기 비용이 발생하여 시스템의 성능 저하가 발생하게 된다. 본 논문에서는 이러한 가상화 환경에서의 I/O비용을 감소시키기 위해 SSD를 캐시로 사용하는 중복 제거 기법을 제안한다. 제안된 기법은 중복된 데이터를 제거하여 불필요한 디스크에 대한 I/O 수행을 감소시키며, 중복 발생 패턴의 특성을 고려하여 SSD의 빠른 쓰기 성능을 효과적으로 사용할 수 있는 캐시 구조 모델을 통해 가상화 환경에서 I/O 성능을 향상 시킬 수 있음을 보인다.

콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구 (A Comparison Study on Data Caching Policies of CCN)

  • 김대엽
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.327-334
    • /
    • 2017
  • 네트워크 성능 향상을 위하여 CDN/P2P와 같은 기술들은 이전에 사용자들 또는 프락시 시스템에 저장되어 있는 복사본을 사용하도록 설계 되었다. CCN 역시 이와 같은 기능을 구현한다. 그러나 CDN/P2P와 달리, CCN은 이와 같은 캐시 기능을 네트워크 노드에 구현하고, 네트워크 노드들이 콘텐츠 요청 메시지에 직접 응답할 수 있도록 설계 되었다. 그러므로 CCN의 성능에 가장 중요한 요소는 캐시 되는 콘텐츠와 노드를 결정하는 기술이다. 기본적으로, CCN은 콘텐츠가 전송될 때 경유하는 모든 네트워크 노드들에 해당 콘텐츠가 캐시 되도록 설계되었지만, 이와 같은 접근 방법은 중복 캐시 발생으로 인하여 매우 비효율적이라 할 수 있다. 이러한 문제를 해결하기 위하여 다양한 캐시 운영 방법이 제안되었다. 본 논문에서는 지금까지 제안된 캐시 운영 방안들을 살펴보고, 실제 운영을 위해 필요한 효과적인 캐시 운영을 위한 핵심 요구사항들을 제안한다.

가상화 환경에서 페이지 캐시 정보를 이용한 메모리 중복제거 기법에 관한 연구 (A Study on Memory Deduplication using Page Cache Information in Virtualization Environment)

  • 이세호;김인혁;엄영익
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(A)
    • /
    • pp.149-151
    • /
    • 2012
  • 서버가상화는 제한된 컴퓨팅 자원을 이용하여 다수의 운영체제를 가동시키는 기술이다. 한정된 컴퓨팅 자원을 이용하는 가상화 기술은 메모리 공간 부족이라는 문제를 야기했다. 이를 해결하기 위한 메모리 중복제거 기술들이 소개되고 있다. 그러나 많은 논문들 호스트와 가상 머신간의 메모리 사용 정보 부족으로 인해 많은 오버헤드를 가지고 메모리 중복제거 기술을 제공하고 있다. 본 논문은 메모리 공유 비중이 가장 큰 가상 머신의 페이지 캐시 정보를 제공하는 파일 시스템을 기반으로 페이지 스캐닝을 통한 효율적인 메모리 중복제거 기법을 제안한다.

컨텐츠 중심 네트워킹에서 Intra-AS를 위한 그룹 기반 협력 캐싱 전략 (Group-based Intra-AS Cooperative Caching Strategy in Content-Centric Networking)

  • 김성민;김광수;최승오;노병희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.307-309
    • /
    • 2013
  • 미래 인터넷 기술 중 하나인 컨텐츠 중심 네트워킹 (CCN)은 컨텐츠의 이름을 이용해 사용자가 원하는 컨텐츠를 요청하고 이를 받음으로써 현재 위치 기반에서 이름 기반으로 변화하고 있는 컨텐츠 패러다임을 반영하고 있다. 사용자가 요청한 컨텐츠가 서버에서 라우터를 거쳐 이동할 때 각 라우터마다 내장되어 있는 캐시에 저장하여 관리하는 방식을 사용하기 때문에 같은 컨텐츠가 중복으로 저장되는 문제가 발생한다. 본 논문에서는 AS 외부에 위치하는 서버로부터 컨텐츠를 받을 때 주변 라우터를 그룹으로 묶어 캐시를 관리함으로써 중복 저장되는 빈도를 낮추고 캐시 적중률 향상과 지연 시간 감소를 이끄는 전략을 제안하고 실험적으로 검증한다.

통합 캐시 및 개선된 적응형 세미소프트 핸드오프를 이용한 셀룰러 IP의 성능분석 (Performance Analysis of Cellular IP using Combined Cache and Improved Adaptive Semi-soft Handoff Method)

  • 최정훈;김남;정승호
    • 한국콘텐츠학회논문지
    • /
    • 제4권4호
    • /
    • pp.113-121
    • /
    • 2004
  • 기존 셀룰러 IP는 많은 중복패킷으로 인하여 네트워크에 큰 트래픽 부하가 가중되고, 패킷 손실과 핸드오프 지연이 발생한다. 본 논문에서는, 페이징 캐시와 라우팅 캐시를 결합한 통합 캐시와 중복 패킷 발생을 최소화하는 개선된 적응형 세미소프트 핸드오프를 함께 운용할 것을 제안하였다. 컴퓨터 시뮬레이션을 통하여 패킷 손실, 핸드오프 지연 및 네트워크 내 트래픽 부하 특성 등을 고찰하였다. 그 결과, 제안한 방식은 액세스 네트워크 내 노드와 이동 호스트의 수, 노드 내 다운링크의 수가 증가할수록 세미소프트 핸드오프를 적용한 기존의 셀룰러 IP와 비교하여 크게 개선되었다는 것을 확인하였다.

  • PDF

모바일 P2P 네트워크에서 피어의 연결성을 고려한 그룹 기반 캐시 공유 기법 (Group-based Cache Sharing Scheme Considering Peer Connectivity in Mobile P2P Networks)

  • 김재구;윤수용;임종태;이석희;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제14권10호
    • /
    • pp.20-31
    • /
    • 2014
  • 모바일 P2P 네트워크에서 사용자 요청을 효과적으로 처리하기 위해 캐시 공유 기법들이 연구되고 있다. 본 논문에서는 모바일 P2P 네트워크에서 피어의 연결성에 기반을 둔 클러스터를 구축하여 캐시를 공유하는 기법을 제안한다. 제안하는 기법은 연결성이 오랫동안 유지될 수 있는 피어들을 하나의 클러스터로 구성하여 캐시를 공유한다. 클러스터 내부에 있는 피어들의 캐시를 하나로 사용함으로써 데이터의 중복을 감소시키고 캐시 공간을 효율적으로 사용한다. 또한, 캐시 공간을 데이터 캐시와 임시 캐시 두 부분으로 분할하여 사용한다. 임시 캐시를 활용하여 클러스터의 토폴로지가 변경되거나 캐시 데이터 교체 시, 지연시간을 감소시킬 수 있다. 일반적인 기법은 협력적 캐시 처리 절차를 통해 질의가 전달되지만 통신비용을 줄이기 위해 1-홉 피어 캐시확인과 클러스터 헤더로 가는 경로에 있는 피어의 캐시를 확인한다. 성능 평가 결과 제안하는 기법이 기존 기법에 비해 캐시 적중률도 높고 지연시간을 감소시키는 것을 확인할 수 있었다.

데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계 (Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search)

  • 김광중;고현;김영자;이연식
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.153-166
    • /
    • 2005
  • 기존 단일 캐시 구조는 각기 사용되는 교체 전략에 따라 적중률의 차이를 보임으로써 보다 향상된 적중률을 제공하며 서버 및 네트워크 트래픽을 감소시키는 새로운 캐시 구조가 필요하다. 그러므로 본 논문에서는 지속적인 정보 제공 및 동일한 정보의 중복 요청으로 인한 서버 과부하 및 네트워크 트래픽을 감소시키며 적중률을 향상시키는 이중 캐시를 이용한 푸시 에이전트 모델을 설계한다. 제안된 푸시 에이전트 모델에서는 서버 및 네트워크 부하를 감소시키기 위해 두 개의 캐시 저장소를 이용하여 단계적인 캐시 교체를 수행하는 이중 캐시 구조를 제안하며, 또한 캐시 내 데이터들의 효용성을 증가시키기 위해 Log(Size)+LRU, LFU, PLC의 교체 정책을 기반으로 데이터 갱신과 삭제를 수행하는 새로운 캐시 교체기법 및 알고리즘을 제시한다. 그리고 실험을 통해 이중 캐시 푸시 에이전트 모델에 대한 성능을 평가한다.

  • PDF

모바일 환경에서 파일 입출력 연산을 활용한 메모리 중복 제거 기법 (Memory De-duplication Mechanism using File I/O Operations in Mobile Devices)

  • 이세호;김인혁;엄영익
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.44-45
    • /
    • 2013
  • 전 세계의 스마트폰 보급률이 증가와 함께 새로운 형태의 스마트 워치, 구글 글래스 등의 모바일 장비들이 등장하고 있다. 이는 제한된 자원을 사용하는 스마트폰 환경에서 효율적으로 CPU, 메모리, 저장 장치들을 효과적으로 사용하기 위한 연구를 필요로 한다. 이에 본 논문에서는 안드로이드 환경에서 부족 메모리의 공간 확보를 위해 동일한 내용의 페이지 캐시를 찾고, 중복 제거하는 기법을 제안한다. 이는 부족한 메모리 공간 확보와 캐시를 지속하여 I/O 연산의 빈도를 줄여 스마트폰 성능 향상을 가져올 것으로 기대된다.

메모리 파일 시스템 기반 고성능 메모리 맵 파일 입출력을 위한 매핑 캐시 (Mapping Cache for High-Performance Memory Mapped File I/O in Memory File Systems)

  • 김지원;최정식;한환수
    • 정보과학회 논문지
    • /
    • 제43권5호
    • /
    • pp.524-530
    • /
    • 2016
  • 기존보다 데이터를 빠르게 접근하기 위한 노력과 비-휘발성 메모리의 발전은 메모리 파일 시스템 연구에 큰 기여를 해왔다. 메모리 파일 시스템은 파일 입출력의 고성능을 위해서 기존에 사용하는 읽기-쓰기 입출력보다 오버헤드가 적은 메모리 맵 파일 입출력을 사용하도록 제안하고 있다. 하지만 메모리 맵 파일 입출력을 사용하게 되면서 페이지 테이블을 구축할 때 발생하는 오버헤드가 전체 입출력 성능의 큰 부분을 차지하게 되었다. 또한 같은 파일이 반복적으로 접근될 때마다 페이지 테이블을 매번 삭제하기 때문에, 오버헤드가 불필요하게 중복되어서 발생한다는 점을 발견했다. 본 논문이 제안하는 매핑 캐시는 이러한 중복되는 오버헤드를 제거하기 위해서, 매핑이 해제될 때 파일의 페이지 테이블을 제거하지 않고 저장하고 있다가 다시 접근될 때 이를 재활용할 수 있도록 고안한 기법이다. 매핑 캐시는 기존 파일 입출력 성능보다 2.8배, 그리고 웹서버 전체 성능보다 12% 향상을 보였다.