• 제목/요약/키워드: Data cache

검색결과 488건 처리시간 0.021초

ORDBMS를 사용한 XML 질의 캐쉬의 효율적인 지연 갱신 (Efficient Deferred Incremental Refresh of XML Query Cache Using ORDBMS)

  • 황대현;강현철
    • 정보처리학회논문지D
    • /
    • 제13D권1호
    • /
    • pp.11-22
    • /
    • 2006
  • XML 문서의 생성 및 활용도가 증가함으로 인해 XML 문서를 데이터베이스에 저장하여 관리하는 기법이 활발히 연구되고 있다. 관계형 또는 객체 관계형 데이터베이스 관리 시스템(RDBMS/ORDBMS)을 XML 문서의 저장소로 사용하는 것은 현재 가장 실용적인 방법으로 받아들여지고 있다. 데이터베이스에 저장된 XML 문서에 대한 빠른 질의 처리를 위하여 XML 질의 캐쉬를 사용할 수 있다. 그러나 XML 질의 캐쉬의 사용은 하부 자료의 변경에 대한 일관성 유지비용이 든다. 본 논문에서는, ORDBMS를 XML 질의 캐쉬와 하부 XML 자료의 저장소로 사용하고 변경로그를 사용하여 XML 질의 캐쉬를 지연 갱신할 때, XML 질의 캐쉬에 대한 비효율적인 갱신의 원인인 변경로그에 저장된 동일한 XML 문서에 대한 중복 변경을 제거 또는 여과하는 알고리즘을 제시한다. 또한 이를 바탕으로 XML 질의 캐쉬의 갱신에 사용할 최적화된 SQL 문을 생성한다. 실험을 통해 본 논문에서 제안한 XML 질의 캐쉬의 지연 갱신 방법의 효율성을 보인다.

다중스레드 모델의 성능 향상을 위한 가용 레지스터 기반 캐슁 기법 (A Register-Based Caching Technique for the Advanced Performance of Multithreaded Models)

  • 고훈준;권영필;유원희
    • 정보처리학회논문지A
    • /
    • 제8A권2호
    • /
    • pp.107-116
    • /
    • 2001
  • A multithreaded model is a hybrid one which combines locality of execution of the von Neumann model with asynchronous data availability and implicit parallelism of the dataflow model. Much researches that have been made toward the advanced performance of multithreaded models are about the cache memory which have been proved to be efficient in the von Neumann model. To use an instruction cache or operand cache, the multithreaded models must have cache memories. If cache memories are added to the multithreaded model, they may have the disadvantage of high implementation cost in the mode. To solve these problems, we did not add cache memory but applied the method of executing the caching by using available registers of the multithreaded models. The available register-based caching method is one that use the registers which are not used on the execution of threads. It may accomplish the same effect as the cache memory. The multithreaded models can compute the number of available registers to be used during the process of the register optimization, and therefore this method can be easily applied on the models. By applying this method, we can also remove the access conflict and the bottleneck of frame memories. When we applied the proposed available register-based caching method, we found that there was an improved performance of the multithreaded model. Also, when the available-register-based caching method is compared with the cache based caching method, we found that there was the almost same execution overhead.

  • PDF

이동 컴퓨팅 환경에서 갱신가능 메시지를 이용한 캐쉬 일과성 유지 정책 (A Strategy using Updatable Message for Retaining the Cache Consistency in the Mobile Computing Environment)

  • 박성배;황부현
    • 한국정보처리학회논문지
    • /
    • 제4권7호
    • /
    • pp.1694-1705
    • /
    • 1997
  • 미래의 이동 컴퓨팅 환경에서는 휴대 가능한 랩탑 등의 이동호스트가 무선 통신 채널을 통하여 데이타베이스에 접근하는 것이 일반화될 것이다. 이동호스트는 무선 통신의 낮은 대역폭으로 인한 문제를 해결하기 위하여 자주 사용하는 데이타를 캐쉬하며, 캐쉬 데이타의 정확성을 위항 캐쉬 일관성을 유지하여야 한다. 캐쉬 일관성은 이동호스트의 무제한적인 이동과 이동호스트 지원 서버와의 빈번한 통신 단절로 인하여 위배될 수 있다. 따라서 이동호스트를 효율적으로 지원하는 캐쉬 일관성 유지 정책이 요구된다. 본 논문에서는 2단계 완료 프로토콜을 지원하는 중복 데이타베이스의 이동 컴퓨팅 환경에서 갱신가능 메시지를 이용한 정책을 제안한다. 이 정책은 이동호스트가 다른 셀로 이동할 때 캐쉬 일관성이 위배되는 문제를 해결하기 위하여 갱신가능 메시지를 사용한다. 갱신가능 메시지의 이용은 수신하지 못한 무효화 메시지의 갱신 데이타만을 찾아 다시 캐쉬하도록 지원한다. 결과적으로 제안된 정책은 임의의 데이타 변경만으로 모든 캐쉬 데이타의 제거없이 캐쉬 일관성을 유지하기 때문에 대역폭을 효율적으로 사용하는 장점을 지닌다.

  • PDF

이차원 블록 구조에 근거한 선인출 기법 (A Multimedia Data Prefetching Based on 2 Dimensional Block Structure)

  • 김석주
    • 한국멀티미디어학회논문지
    • /
    • 제7권8호
    • /
    • pp.1086-1096
    • /
    • 2004
  • 스트리밍 데이터를 다루는 멀티미디어 응용의 경우 캐시 관리 측면에서 데이터의 시간적 지역성이 약하여 캐시의 효율이 감소하게 된다. 이는 캐시에 적재된 데이터가 대부분 다시 사용되지 않고 바뀌게 됨을 의미한다. 반면에 이러한 데이터들은 참조 명령에 따른 규칙적인 접근 패턴을 갖고 있는 경우가 많다. 이 논문에서는 약한 시간적 지역성을 나타내는 멀티미디어 응용 데이터에서도 통상적으로 내재된 메모리 참조의 규칙성을 적극적으로 활용하기 위해 동적 등차 참조 선인출 기법의 기능과 함께 이차원 배열 형식(블록)을 찾을 수 있는 방법을 제안한다. 제안된 방법은 블록 구조를 인식하고 이에 따라 선인출 주소를 계산 하므로 블록 참조 예측 기법 (BRPT: block-reference-prediction-technique)이라고 명한다. BRPT는 새로운 규칙으로 인해 선인출 기구가 더 복잡하지만 블록 패턴이 많은 응용의 경우 메모리 참조 시간을 크게 줄이는 것을 확인하였다.

  • PDF

상이한 메모리 크기를 가지는 분산 환경에서 부하 분산을 위한 캐시 관리 기법 (An Efficient Cache Management Scheme for Load Balancing in Distributed Environments with Different Memory Sizes)

  • 최기태;윤상원;박재열;임종태;이석희;복경수;유재수
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권8호
    • /
    • pp.543-548
    • /
    • 2015
  • 최근 소셜 미디어의 성장과 디지털 기기의 활용이 증가함에 따라 기하급수적으로 데이터가 급증하고 있다. 기존 디스크 기반 분산 파일 시스템은 I/O 처리 비용 및 병목 현상으로 인해 데이터 처리나 데이터 접근 성능에 한계가 발생한다. 이러한 문제점을 해결하기 위해 메모리에 데이터를 관리하는 캐시 기법이 활용되고 있다. 본 논문에서는 분산 메모리 환경에서 부하 분산을 처리하기 위한 캐시 관리 기법을 제안한다. 제안하는 기법은 노드의 메모리의 크기가 서로 상이한 환경에서 메모리 크기에 따라 데이터를 분배하고 노드의 부하가 발생할 경우 핫 데이터를 재분배한다. 또한, 캐시 항목의 재사용 가능성, 사용 빈도수, 접근 시간을 고려한 캐시 교체 기법을 제안한다. 성능 평가를 통해 제안하는 분산 캐시 기법이 기존에 캐시 관리 기법에 비해 우수함을 입증한다.

비휘발성 버퍼 캐시를 이용한 파일 시스템의 주기적인 flush 오버헤드 개선 (Improving Periodic Flush Overhead of File Systems Using Non-volatile Buffer Cache)

  • 이은지;강효정;고건;반효경
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.878-884
    • /
    • 2014
  • 파일 시스템 버퍼 캐시는 느린 스토리지의 접근 횟수를 줄여 입출력 성능 향상에 기여하지만, 캐시에서 수정된 데이터를 스토리지에 오랫동안 반영하지 않을 경우 크래쉬 발생 시 최신 데이터가 유실되거나 데이터의 일관성이 깨어지는 문제가 발생할 수 있다. 이를 방지하기 위해 대부분의 운영체제는 수정 데이터를 주기적으로 스토리지에 반영하는 flush 데몬을 사용한다. 본 논문은 파일시스템의 쓰기 연산 중 30-70%가 주기적인 flush에 의해 발생함을 분석하고, 이를 소량의 NVRAM 버퍼 캐시를 이용하여 해결하는 기법을 제시한다. 특히, 본 논문은 델타 쓰기 및 그룹 기반 교체 기법을 제안하여 소량의 NVRAM 만으로 스토리지 쓰기 트래픽과 처리량을 각각 44.3%와 23.6% 개선할 수 있음을 보인다.

캐쉬메카니즘을 이용한 시맨틱 스키마 데이터 처리 (Semantic schema data processing using cache mechanism)

  • 김병곤;오성균
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권3호
    • /
    • pp.89-97
    • /
    • 2011
  • 네크워크상의 분산되어 있는 정보를 접근하는 온톨로지와 같은 시맨틱 웹 정보 시스템에서는 효율적인 질의 처리를 위하여 질의 응답 시간을 줄여주는 향상된 캐쉬 메카니즘을 필요로 한다. 특히, P2P 네트워크 시스템은 웹 환경의 기본적인 하부 구조를 이루고 있으며, 질의가 발생하면, 소스 피어(Peer)로의 데이터 전송량을 줄이는 문제가 효율적인 질의 처리의 중요한 부분이다. 전통적인 데이터베이스 캐쉬 메카니즘으로부터 현재의 웹 환경에 적합한 질의 메카니즘들이 연구되어 왔으며, 질의 처리 결과를 캐쉬하는 것은 입력 질의 요구를 빠른 시간에 바로 사용자에게 전달할 수 있다. 웹 환경에서는 시맨틱 캐싱 방법이 연구되어 왔으며, 이는 캐쉬를 의미적인 영역들로 이루어진 공간으로 관리하는 개념이며, 논리적인 캐싱 단위가 질의와 질의 결과이므로 웹 환경에서 적합한 개념이다. 본 연구에서는 온톨로지와 같은 시맨틱 웹 정보가 클러스터 단위로 여러 피어에 분산되어 있는 경우에 캐쉬 메카니즘을 이용하여 효율적인 질의 처리가 이루어지도록 하는 방법을 제시한다. 특히, 캐쉬를 유지하고 처리하는 방법으로 스키마를 이용한 캐쉬 데이터 필터링 방법과 온톨로지와 질의 결과의 유사도를 측정하여 캐쉬 대체 영역 선택에 사용하는 방법을 제시한다.

모바일 지도 서비스를 위한 에이전트 기반의 공간 데이터 캐쉬의 설계 및 구현 (Design and Implementation of the Spatial Data Cache Based on Agents for Providing Mobile Map Services)

  • 임덕성;이재호;홍봉희
    • 정보처리학회논문지D
    • /
    • 제10D권2호
    • /
    • pp.175-186
    • /
    • 2003
  • PDA와 같은 무선단말기에서 지도 데이터에 대한 검색 및 접근을 위해 영역단위의 캐쉬와 R-tree 기반의 공간색인이 필요하다. 그러나 서버로부터 낮은 저장용량의 무선단말기에 전송되는 공간객체는 캐쉬된 공간 객체와 중복되는 문제가 있다. 또한 추가되는 데이터를 저장하고, 효율적인 공간 질의를 위한 색인 재구축 비용은 낮은 컴퓨팅 파워를 가진 무선단말기에 부하를 준다. 따라서 낮은 컴퓨팅 파워를 가진 무선단말기의 부하를 분산시키는 방법과 중복객체의 처리기법이 필요하다. 이 논문에서는 먼저 캐슁시 중복 객체에 대한 처리기법을 분류하고, 클리핑기밥을 사용한 공간 객체 저장과 색인 재구성방법을 분석한다. 또한, 무선단말기에 집중된 부하를 분산시키기 위해 색인구성 및 클리핑 작업을 에이전트에서 처리하는 에이전트 기반 캐슁시스템을 제시한다. 그리고, 제시한 시스템을 설계 및 구현하고, 성능을 평가한다.

XML 시맨틱 캐쉬의 교체 기법 (A Technique of Replacing XML Semantic Cache)

  • 홍정우;강현철
    • 한국전자거래학회지
    • /
    • 제12권3호
    • /
    • pp.211-234
    • /
    • 2007
  • 전자 거래에 있어 XML로 기술된 데이터가 증가하고, 이로부터 효율적인 질의 처리를 수행하는 기능의 중요성이 커지고 있다. 질의 처리 성능을 향상하기 위해 XML질의 결과를 캐쉬하는 방법이 주목을 받고 있는데 XML 질의 캐쉬 기법을 활용하기 위해서는 효율적인 캐쉬 교체 기법이 요구된다. 기존의 XML 캐쉬 교체기법에는 질의 결과를 교체 단위로 하는 방법과 질의 결과 내의 각 경로들을 교체 단위로 하는 방법이 있다. 첫 번째 방법은 간단한 운용이 가능하지만 효율적이지 못하고 두 번째 방법은 첫 번째 방법에 비해 효율적이지만 교체 단위 크기의 차이가 커서 캐쉬의 효율을 높이는 데 한계가 있다. 본 논문에서는 위 두 방법의 단점을 해결하기 위해 XML질의 결과 내의 모든 엘리먼트를 교체 단위로 하는 방법을 제시한다. 이는 교체 단위의 크기가 작고 최대 크기와 최소 크기의 차이도 작으므로 새로 캐쉬에 추가할 데이터의 크기보다 과도하게 큰 희생자가 발생하지 않고, 교체 후 캐쉬 내의 사용하지 않는 공간도 작아지게 되어 캐쉬의 효율성을 크게 향상시킬 수 있는 방법이다. 캐쉬 적중 빈도, 최근 접근 시간, 인출 지연 시간, XML 시맨틱 영역의 크기, XML 시맨틱 영역 내의 엘리먼트 크기 등을 종합적으로 고려하여 교체 희생자를 선택하기 위한 교체 함수를 바탕으로 하는 XML 시맨틱 캐쉬 교체 기법을 제시한다. 본 논문에서 제시한 기법을 적용한 XML 시맨틱 캐쉬 시스템의 프로토타입을 구현하여 실제 LAN 환경에서 실험하였다. 실험 결과 기존의 XML 캐쉬 교체 기법에 비해 본 논문에서 제시한 XML 시맨틱 캐쉬 교체 기법이 더욱 효율적이었다

  • PDF

GPU 성능 향상을 위한 MSHR 정보 기반 워프 스케줄링 기법 (A new warp scheduling technique for improving the performance of GPUs by utilizing MSHR information)

  • 김광복;김종면;김철홍
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제13권3호
    • /
    • pp.72-83
    • /
    • 2017
  • GPU는 다수의 워프를 병렬적으로 수행함으로써 레이턴시를 숨기면서 높은 처리량을 제공할 수 있다. 만약 GPU에서 캐쉬에 대한 요청이 미스를 발생시킨다면 하위 메모리로부터 요청한 데이터를 받을 때까지 MSHR(Miss Status Holding Register)을 통해 미스 정보를 추적하고 다른 워프를 수행한다. 최신 GPU에서는 캐쉬 자원에 대한 과도한 요청이 발생한 경우 자원점유 실패가 발생하여 GPU 자원을 충분히 활용할 수 없는 경우가 자주 발생한다. 본 논문에서는 MSHR 자원 부족으로 인해 발생하는 성능 감소를 줄이고자 새로운 워프 스케줄링 기법을 제안한다. L1 데이터 캐쉬에서 각 워프별 캐쉬 미스율은 긴 사이클 동안 비슷하게 유지되는 특성을 이용하여 각 워프들의 캐쉬 미스율을 예측하고, 이를 바탕으로 MSHR의 자원을 더 이상 사용할 수 없는 상태에서는 낮은 캐쉬 미스율을 보일 것으로 예측되는 워프들과 연산 위주 워프들을 우선적으로 이슈 한다. 제안하는 기법은 예측된 캐쉬 미스율과 MSHR 상태를 기반으로 캐쉬 자원을 더 효율적으로 사용함으로써 GPU 성능을 향상시킨다. 실험 결과, 제안된 기법은 LRR(Loose Round Robin) 정책에 비해 자원점유실패 사이클이 25.7% 감소하고 IPC(Instruction Per Cycle)가 6.2% 증가한다.