• Title/Summary/Keyword: Data cache

Search Result 488, Processing Time 0.021 seconds

데이터 그리드 환경에서 파일 교체 정책 연구 (A Study of File Replacement Policy in Data Grid Environments)

  • 박홍진
    • 정보처리학회논문지A
    • /
    • 제13A권6호
    • /
    • pp.511-516
    • /
    • 2006
  • 데이터 그리드는 대용량의 데이터 어플리케이션 처리를 위해 지리적으로 분산되어 있는 저장 자원을 제공한다. 대용량을 처리해야 하는 데이터 그리드 환경에서는 기존 웹 캐싱 정책이나 가상 메모리 캐쉬 교체 정책과는 다른 파일 교체 정책이 필요하다. LRU(Least Recently Used)나 LCB-K(Least Cost Beneficial based on K), EBR(Economic-based cache replacement), LVCT(Least Value-based on Caching Time) 같은 기존의 파일 교체 전략은 파일 교체를 위해 추가적인 자원이 필요하거나 미래를 예측해야한다. 본 논문은 이를 해결하기 위해 파일의 크기에 기반하여 파일 교체를 수행하는 SBR-k(Sized-based replacement-k)을 제안한다. 성능평가 결과 제안한 정책이 기존의 정책보다 더 나은 성능을 나타낸다는 것을 확인하였다.

스크래치패드 메모리를 위한 데이터 관리 기법 리뷰 (A Review of Data Management Techniques for Scratchpad Memory)

  • 조두산
    • 문화기술의 융합
    • /
    • 제9권1호
    • /
    • pp.771-776
    • /
    • 2023
  • 스크래치패드 메모리는 소프트웨어 제어 온칩 메모리로서 기존의 캐시 메모리의 단점을 완화할 수 있게 설계되어 이용되고 있다. 기존의 캐시 메모리는 태그 관련 하드웨어 제어 로직이 있어 캐시 미스를 사용자가 직접 제어할 수 없으며, 사이즈가 크고 에너지 소모량이 상대적으로 많다. 스크래치패드 메모리는 이러한 하드웨어 오버헤드를 제거하였기 때문에 사이즈, 에너지 소모량에서 장점이 있으나 데이터 관리를 소프트웨어가 해야하는 부담이 존재한다. 본 연구에서는 스크래치패드 메모리의 데이터 관리 기법들을 분류하여 살펴보고 그 장점을 극대화할 수 있는 방안에 대하여 논의하였다.

리눅스 상에서 멀티미디어 데이타를 고려한 지역 버퍼 할당 기법 (A Local Buffer Allocation Scheme for Multimedia Data on Linux)

  • 신동재;박성용;양지훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.410-419
    • /
    • 2003
  • 리눅스와 같은 범용 운영체제의 버퍼 캐시(buffer cache)는 전역적(global) 블록 교체 및 미리읽기(read ahead) 정책 등을 사용하여 파일 블록을 관리한다. 따라서, 참조의 지역성(locality)을 가지지 않고 다양한 소비율(consumption rate)을 갖고 있는 멀티미디어 데이타의 경우 캐시 시스템의 적중률이 낮을 뿐만 아니라 미리읽기의 특성으로 인하여 필요보다 과도하게 버퍼를 소비하기도 한다. 본 논문에서는 리눅스 상에서 멀티미디어 데이타를 위한 새로운 버퍼 할당 기법을 설계하고 구현하였다. 제안된 방법에서는 멀티미디어 파일마다 독립적인 미리읽기 캐시를 유지하며 미리읽기 그룹의 크기를 소비율에 비례하도록 동적으로 조절한다. 이는 공정한 자원 분배가 이루어지도록 하며, 버퍼의 소비량을 최적화되도록 한다. 본 논문에서는 구현된 시스템과 최신의 리눅스 커널 2.4.17 버전 상에서 각각 소비되는 버퍼 수와 캐시 적중률을 실험을 통하여 비교함으로써 시스템의 성능을 평가한다.

이동 컴퓨팅 환경에서 데이타 그룰 정보를 이용한 동시성 제어 방법 (A Concurrency Control Method using Data Group Information in Mobile Computing Environments)

  • 김대인;황부현
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제32권3호
    • /
    • pp.315-325
    • /
    • 2005
  • 이동 컴퓨팅 환경에서 이동 호스트는 제한된 대역폭을 효율적으로 사용하고 이동 트랜잭션의 응답 시간을 향상시키기 위하여 캐쉬를 사용한다. 그리고 이동 호스트에 캐슁된 데이타가 서버에서 갱신되는 경우 서버는 이동 호스트의 캐쉬 일관성을 유지하기 위하여 무효화 메시지를 방송한다. 그러나 주기적인 무효화 메시지 방송을 사용한 이동 호스트의 캐쉬 일관성 유지 방법은 이동 트랜잭션의 완료 결정을 무효화 메시지 수신 시점으로 지연함으로써 이동 트랜잭션의 응답 시간이 길어진다는 문제점이 있다. 본 연구에서는 캐슁된 데이타를 사용하여 이동 트랜잭션을 수행하는 경우에 이동 트랜잭션의 응답 시간을 향상시킬 수 있는 UGR-MT 방법을 제안한다. 제안하는 UGR-MT 방법은 데이타 그룹 정보를 사용하여 무효화 메시지 수신 이전에 이동 트랜잭션의 완료 결정을 내림으로써 이동 트랜잭션의 응답 시간을 향상시킬 수 있다. 또한 제안하는 방법은 이동 호스트의 단절 시간이 무효화 메시지 방송 구간보다 긴 경우에 발생할 수 있는 이동 호스트의 전체 캐쉬 내용의 버림을 방지함으로써 캐쉬의 효율성을 높일 수 있다.

영속 메모리를 이용한 스마트폰 버퍼 캐시의 선별적 플러시 정책 (Policy for Selective Flushing of Smartphone Buffer Cache using Persistent Memory)

  • 임수정;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.71-76
    • /
    • 2022
  • 버퍼 캐시는 스토리지의 느린 속도를 완충하는 중요한 역할을 하지만, 데이터의 유실을 막기 위한 주기적인 플러시 연산으로 인해 스마트폰에서 그 효과가 크게 떨어진다. 본 논문에서는 소량의 영속 메모리에 선택적인 플러시 정책을 적용하여 스마트폰 버퍼 캐시의 플러시 오버헤드를 크게 줄일 수 있음을 보인다. 이는 스마트폰 앱의 I/O 분석 결과 대부분의 파일 쓰기가 소량의 핫 데이터에 집중돼 있는 반면 상당 부분의 파일 데이터는 1회성 쓰기에 국한한다는 점에 근거한다. 제안하는 기법은 플러시 상황 발생 시 자주 수정되는 데이터를 영속 메모리로 우회 플러시하고 그렇지 않은 데이터만을 스토리지로 플러시한다. 이를 통해 스토리지 쓰기량을 크게 줄이는 동시에 영속 메모리의 공간 효율성을 높인다. 인기 있는 스마트폰 앱의 I/O 트레이스를 이용한 재현 실험을 통해 제안하는 기법이 스토리지 쓰기량을 평균 25.8%, 최대 37.8%까지 줄임을 보인다.

HiPi 버스를 사용한 멀티프로세서 시스템에서 캐쉬 코히어런스 프로토콜의 성능 평가에 관한 연구 (A Study on the Performance Analysis of Cache Coherence Protocols in a Multiprocessor System Using HiPi Bus)

  • 김영천;강인곤;황승욱;최진규
    • 한국통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.57-68
    • /
    • 1993
  • 본 논문에서는 pended 프로토콜을 가지는 HiPi버스와 다중 캐쉬 메모리를 사용하는 멀티프로세서 시스템을 기술하고, 캐쉬 코히어런스 프로토콜에 따라 프로세서의 효율 측면에서 시스템의 성능을 평가하였다. HiPi 버스는 ETRI에서 개발된 행정전산망용 주전산기인 TICOMII의 공유 버스로 사용되기 위하여 개발되었다. HiPi버스는 고속의 데이타 전송 능력을 가지고 있으나, 캐쉬 간의 데이타 전송을 허용하지 못하는 단점을 가지고 있다. 캐쉬 간의 데이타 전송이 전체 시스템의 성능에 미치는 영향을 측정하고, HiPi버스에 적합한 캐쉬 코히어런스 프로토콜을 선택하기 위하여 두가지 시뮬레이션을 실시하였다. 첫째, HiPi 버스를 사용하는 멀티프로세서 시스템에 다양한 캐쉬 코히어런스 프로토콜을 적용하고 시뮬레이션을 통하여 프로세서 효율에 따른 성능 분석을 실시하였다. 각각으니 프로토콜은 상태 천이도록 나타내었으며, Markov정적 상태도를 이용하여 각 상태의 확률 갑을 구하였다. 각 상태의 확률은 시뮬레이션에서 입력 값으로 사용되었고, 모델링과 시뮬레이션은 SLAMII심볼과 언어를 사용하였다. 둘째, 캐쉬 간의 데이타 전송을 갖는 HiPi버스를 제안하였고, 제안된 HiPi버스를 사용하는 멀티프로세서 시스템에 다양한 캐쉬 코히어런스 프로토콜을 적용하고 시뮬레이션을 통하여 프로세서 효율에 따른 성능 분석을 실시하였다. 고려된 캐쉬 코히어런스 프로토콜은 Write-through, Write-once, Berkely, Synapse. Illinois, Firefly, Dragon이다.

  • PDF

2Q-CFP: 방송에 기초한 정보 시스템을 위한 클라이언트 캐쉬 관리 기법 (2Q-CFP: A Client Cache Management Scheme for Broadcast-based Information Systems)

  • 권혁민
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권6호
    • /
    • pp.561-572
    • /
    • 2003
  • 방송에 기초한 데이타 전달 방식은 방대한 규모의 클라이언트에게 데이타를 전파하기 위한 효과적인 기술로서 큰 관심을 끌고 있다. 방송에 기초한 정보 시스템(broadcast-based information system: BBIS)의 주된 동기는 자신이 지원하는 클라이언트의 수는 시스템의 성능에 전혀 영향을 미치지 않고 임의로 증가될 수 있다는 것이다. BBIS의 성능은 클라이언트 캐슁 전략과 데이타 방송 스케쥴링 기법에 크게 영향을 받는다. 본 논문은 전자의 문제를 취급하여 BBIS에 적합한 2Q-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안한다. 그리고 모의 실험 모델을 통하여 2Q-CFP 기법의 성능을 평가한다. 성능평가 결과에 의하면 2Q-CFP 기법은 GRAY, LRU, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

그래프 프로세싱을 위한 GRU 기반 프리페칭 (Gated Recurrent Unit based Prefetching for Graph Processing)

  • 시바니 자드하브;파만 울라;나정은;윤수경
    • 반도체디스플레이기술학회지
    • /
    • 제22권2호
    • /
    • pp.6-10
    • /
    • 2023
  • High-potential data can be predicted and stored in the cache to prevent cache misses, thus reducing the processor's request and wait times. As a result, the processor can work non-stop, hiding memory latency. By utilizing the temporal/spatial locality of memory access, the prefetcher introduced to improve the performance of these computers predicts the following memory address will be accessed. We propose a prefetcher that applies the GRU model, which is advantageous for handling time series data. Display the currently accessed address in binary and use it as training data to train the Gated Recurrent Unit model based on the difference (delta) between consecutive memory accesses. Finally, using a GRU model with learned memory access patterns, the proposed data prefetcher predicts the memory address to be accessed next. We have compared the model with the multi-layer perceptron, but our prefetcher showed better results than the Multi-Layer Perceptron.

  • PDF

동적으로 할당된 구조체를 위한 압축된 필드 재배치 (Compact Field Remapping for Dynamically Allocated Structures)

  • 김정은;한환수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권10호
    • /
    • pp.1003-1012
    • /
    • 2005
  • 내장형 시스템과 범용 시스템의 가장 큰 차이는 유한한 전력인 배터리를 사용한다는 것과 대용량의 디스크를 사용하지 않고 메모리에 의존한다는 것이다. 특히 멀티미디어 데이타를 처리하는 응용프로그램이 늘어감에 따라 메모리 사용량이 기하급수적으로 증가하고 있어서 메모리가 성능과 에너지 소비의 병목지점으로 작용하게 되었다. 따라서 데이타 접근 비용을 줄이고자 하는 시도가 많이 이루어지고 있다. 대부분의 프로그램은 지역성을 갖는다. 지역성은 한번 참조된 데이타가 조만간 다시 참조된다는 시간적 지역성(temporal locality)과 근접한 곳에 할당된 데이타끼리 함께 참조된다는 공간적 지역성(spatial locality)으로 나눌 수 있다. 최근의 많은 임베디드시스템은 이 두 가지 지역성을 이용한 캐시 메모리를 사용함으로써 메모리 접근 시간을 대폭 줄이고 있다. 우리는 이 논문에서 낭비되는 메모리 공간을 줄이고, 캐시 실패율(cache miss rate)과 프로그램 수행시간을 줄일 수 있도록 구조체 형식의 데이타를 항목(field)별로 재배치시키는 알고리즘을 제안하고자 한다. 이 알고리즘은 동적으로 할당되는 구조체의 각 필드를 압축된 형태로 모아서 재배치함으로써, 실험에서 사용한 Olden 벤치마크의 Ll캐시 실패는 평균 $13.9\%$를, L2 캐시 실패는 평균 $15.9\%$를 이전 연구들보다 줄일 수 있었다. 수행시간 또한 이전의 방법보다 평균 $10.9\%$ 줄인 결과를 얻을 수 있었다.

가상화 환경을 위한 QEMU/KVM 기반의 인메모리 블록 캐시 모듈 구현 (QEMU/KVM Based In-Memory Block Cache Module for Virtualization Environment)

  • 김태훈;송광혁;노재춘;박성순
    • 정보과학회 논문지
    • /
    • 제44권10호
    • /
    • pp.1005-1018
    • /
    • 2017
  • 가상화는 클라우드 컴퓨팅의 핵심 기술로 물리적 서버에 다수의 가상머신을 운영하여 서버 자원에 대한 활용도를 극대화하고, 관리의 편리성과 보안성을 향상시키는 것을 목표로 한다. 그러나 가상화는 물리적인 자원을 공유하기 때문에 가상머신의 성능이 저하되는 문제점을 가지고 있다. 본 연구에서는 가상머신의 대수에 따라서 발생하는 입출력 부하를 검증하고, 성능 저하의 원인을 해결하기 위해 KVM 하이퍼바이저의 블록 처리 과정을 분석하였다. 또한, 가상화 환경의 입출력 문제점을 보완하기 위한 QBic(QEMU/K-VM Based In-Memory Cache)을 구현하였다. QBic은 하이퍼바이저의 블록 입출력 과정을 모니터링하여 사용빈도가 높은 데이터를 캐시에 저장한다. 이후 캐시를 통해 해당하는 데이터를 빠르게 접근할 수 있으며, 스토리지의 접근 횟수를 줄여 하드웨어의 부하를 낮출 수 있다. 마지막으로 성능 측정을 통해 그 결과를 기술한다.