• 제목/요약/키워드: data cache

검색결과 487건 처리시간 0.028초

인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책 (A novel page replacement policy associated with ACT-R inspired by human memory retrieval process)

  • 노홍찬;박상현
    • 정보처리학회논문지D
    • /
    • 제18D권1호
    • /
    • pp.1-8
    • /
    • 2011
  • 자주 접근되는 데이터에 대해서 빠른 접근을 보장하기 위해 사용되는 임시저장소인 캐쉬는 컴퓨터 시스템 내에서 다양한 계층에 존재하며, 이러한 캐쉬 저장 공간 내에서 효율적으로 데이터를 관리하기 위해 다양한 페이지 교체 알고리즘들이 연구되어 왔다. 대부분의 페이지 교체 알고리즘들은 얼마나 최근에 데이터가 접근 되었는가 또는 얼마나 자주 접근되었는가를 바탕으로 향후 다시 접근될 것 같은 데이터들을 캐쉬 안에 유지하는 휴리스틱 방법을 취하고 있다. 이러한 컴퓨터 내에서의 데이터의 인출 과정은 인간의 기억 인출 과정과 유사하며, 인간의 기억 인출 과정 역시 캐쉬 구조처럼 기억이 얼마나 최근에 그리고 자주 인출되었는가에 의해 그 기억 인출의 확률과 인출속도가 결정된다는 것이 최근 연구에 의해서 밝혀진바 있다. 본 연구에서는 인간의 기억 인출 과정에서의 과거 해당 기억에 대한 인출 기록들의 최근성과 빈도가 인출 확률에 영향을 미치는 관계를 분석하고 이를 페이지 교체 알고리즘에 응용하여 기존의 페이지 교체 알고리즘의 성능을 개선하였다. 또한, 실험을 통해 제안하는 페이지 교체 알고리즘이 기존에 데이터베이스 버퍼 캐쉬에서 가장 좋은 성능을 보이는 것으로 알려진 LRFU보다 파라미터에 민감하지 않고 우수한 성능을 보인다는 것을 입증하였다.

하드웨어 지원의 재시도 없는 잠금기법 (Efficient Hardware Support: The Lock Mechanism without Retry)

  • 김미경;홍철의
    • 한국정보통신학회논문지
    • /
    • 제10권9호
    • /
    • pp.1582-1589
    • /
    • 2006
  • 잠금기법은 분산 병렬 시스템의 동기화에 필수적이다. 기존의 큐잉 잠금기법은 최초의 잠금 읽기와 잠금 경합발생 시 공유 데이터에 대한 잠금이 해제되었을 때 발생하는 잠금 읽기 재 시도로 두 개의 트래픽을 발생한다. 본 논문에서는 WPV(Waiting Processor Variable) 잠금기법이라 불리는 새로운 잠금기법을 제안한다 새로이 제안하는 기법은 오직 한 개의 잠금 읽기 명령을 사용한다. WPV 기법은 파이프라인 전송방식을 사용하여 최초의 잠금 읽기 단계에서 공유 데이터가 전송될 때까지 대기 한 후 잠금을 실시한다. 데이터에 대한 잠금을 수행중인 프로세서는 대기 상태의 다음 프로세서에 대한 정보를 저장하고 있으므로, 공유 데이터가 캐쉬 대 캐쉬 데이터 전송 기법에 의하여 대기중인 다음 프로세서로 바로 전송된다. 따라서 대기중인 프로세서 에 대한 변수는 연결 리스트 구조를 갖는다. 제안된 기법은 캐쉬 상태의 잠금기법을 사용하여 잠금 오버 헤드를 줄이고 다중 잠금 경합 발생시 FIFO를 유지하게 한다. 또한 본 논문에서는 기존의 메모리 및 캐쉬 큐잉 잠금기법에 대한 WPV 잠금기법의 해석적 모델링을 제시한다. WPV 잠금기법에 대한 시뮬레이션의 결과는 기존의 큐잉 잠금기법에 비하여 50%의 접근 시간의 감소를 보여주었다.

HMIPv6에서 MN의 지연을 최소화하는 멀티미디어 컨텐츠 서비스 방법 (The Adaptive Multimedia Contents Service Method to Reduce Delay of MN in HMIPv6)

  • 박원길;강의선
    • 정보처리학회논문지B
    • /
    • 제15B권6호
    • /
    • pp.585-594
    • /
    • 2008
  • 모바일 단말기를 사용하여 모바일 웹 서비스를 제공하는 과정에서 고려해야 할 사항은 끊김없는 서비스와 품질 보장형 서비스 이다. HMIIPv6는 끊김으로 인해 발생되는 패킷 손실과 지연 현상을 개선하기 위하여 MAP을 둔다. 하지만 MN을 위하여 패킷을 수신하고 전달하기 때문에 부하가 집중된다. 이는 보다 빨리 처리해야 할 실시간 데이터를 빨리 처리하지 못하는 결과는 낳는다. 뿐만 아니라 품질 보장 서비스를 위해서는 적응적 모바일 서비스 방법이 필요하다. 하지만 이 방법은 다양한 단말기의 하드웨어적인 차이점으로 인한 컨텐츠의 서비스 응답시간비용이 필요하다. 따라서 본 논문에서는 끊김없는 서비스를 위하여 MAP에 큐를 두어 실시간 데이타 처리 성능을 향상시켰다. 또한 응답시간비용을 줄이기 위하여 컨텐츠의 구성요소를 이용하여 컨텐츠를 재사용할 수 있는 캐시를 갖는 모바일 웹서비스 방법을 제안한다. 수식 분석과 시뮬레이션 결과, 제안방법인MAP에 큐를 두는 방식과 모바일 노드의 이동성을 고려한 캐시 방법이 다른 다양한 시스템 조건에서 우수함을 알수 있었다.

모바일 애드혹 네트워크에서 캐쉬 접근 시간 향상을 위한 시간보증 기반의 캐쉬무효화 기법 (Cache Invalidation Schemes based on Time Guarantee for Improving Access Time in Mobile Ad hoc Networks)

  • 최재호;오재오;이명수;이상근
    • 정보처리학회논문지C
    • /
    • 제16C권1호
    • /
    • pp.65-72
    • /
    • 2009
  • 모바일 장치의 증가와 무선 네트워크 기술의 발전으로 인해 새롭게 모바일 애드혹 네트워크에 대한 관심이 증가하고 있다. 최근까지의 연구는 데이터 접근성(Accessibility) 향상을 위해 데이터 복사본 활용이 효율적임을 증명하였다. 그러나, 데이터 복사본이 모바일 애드혹 네트워크에서 활용되기 위해서는 원본과 복사본 사이에 일관성(Consistency)이 확보되어야만 한다. 기존의 연구에서 사용되고 있는 일관성 확보 기법은 원본을 가진 노드에게 복사본 사용 노드들이 매번 일관성을 가지는지 확인하는 기법이 활용되었다. 그러나, 시간제약을 가지는 응용의 경우 원본을 가진 노드에게 확인하는 기법은 효율적이지 못하거나 때로는 심각한 문제를 일으킬 수도 있다. 본 논문에서는 시간제약응용을 위한 캐쉬 무효화 기법을 제안하고 있다. 제안하는 기법을 통해 기존의 일관성 확인 기법에서 일어나는 ‘롤백(Rollback)’ 문제를 해결할 수 있었으며, 접근시간(Access time) 측면에서 성능향상을 얻을 수 있었다. 또한 본 논문에서는 임계값 기반의 보완 기법을 제안한다. 우리는 실험 결과를 통해 제안하는 기법이 약간의 현재성(Currency) 손해는 있지만, 접근시간 측면에서 효율적임을 증명하여 준다.

Static Timing Analysis of Shared Caches for Multicore Processors

  • Zhang, Wei;Yan, Jun
    • Journal of Computing Science and Engineering
    • /
    • 제6권4호
    • /
    • pp.267-278
    • /
    • 2012
  • The state-of-the-art techniques in multicore timing analysis are limited to analyze multicores with shared instruction caches only. This paper proposes a uniform framework to analyze the worst-case performance for both shared instruction caches and data caches in a multicore platform. Our approach is based on a new concept called address flow graph, which can be used to model both instruction and data accesses for timing analysis. Our experiments, as a proof-of-concept study, indicate that the proposed approach can accurately compute the worst-case performance for real-time threads running on a dual-core processor with a shared L2 cache (either to store instructions or data).

메모리 지연을 감추는 기법들 (Memory Latency Hiding Techniques)

  • 기안도
    • 전자통신동향분석
    • /
    • 제13권3호통권51호
    • /
    • pp.61-70
    • /
    • 1998
  • The obvious way to make a computer system more powerful is to make the processor as fast as possible. Furthermore, adopting a large number of such fast processors would be the next step. This multiprocessor system could be useful only if it distributes workload uniformly and if its processors are fully utilized. To achieve a higher processor utilization, memory access latency must be reduced as much as possible and even more the remaining latency must be hidden. The actual latency can be reduced by using fast logic and the effective latency can be reduced by using cache. This article discusses what the memory latency problem is, how serious it is by presenting analytical and simulation results, and existing techniques for coping with it; such as write-buffer, relaxed consistency model, multi-threading, data locality optimization, data forwarding, and data prefetching.

A Case Study of a Navigator Optimization Process

  • Cho, Doosan
    • International journal of advanced smart convergence
    • /
    • 제6권1호
    • /
    • pp.26-31
    • /
    • 2017
  • When mobile navigator device accesses data randomly, the cache memory performance is rapidly deteriorated due to low memory access locality. For instance, GPS (General Positioning System) of navigator program for automobiles or drones, that are currently in common use, uses data from 32 satellites and computes current position of a receiver. This computation of positioning is the major part of GPS which accounts more than 50% computation in the program. In this computation task, the satellite signals are received in real time and stored in buffer memories. At this task, since necessary data cannot be sequentially stored, the data is read and used at random. This data accessing patterns are generated randomly, thus, memory system performance is worse by low data locality. As a result, it is difficult to process data in real time due to low data localization. Improving the low memory access locality inherited on the algorithms of conventional communication applications requires a certain optimization technique to solve this problem. In this study, we try to do optimizations with data and memory to improve the locality problem. In experiment, we show that our case study can improve processing speed of core computation and improve our overall system performance by 14%.

실시간 모바일 GIS 응용 구축을 위한 주기억장치 데이터베이스 시스템 설계 및 구현 (Design and Implementation of a Main-Memory Database System for Real-time Mobile GIS Application)

  • 강은호;윤석우;김경창
    • 정보처리학회논문지D
    • /
    • 제11D권1호
    • /
    • pp.11-22
    • /
    • 2004
  • 최근 들어 계속되는 램 가격 하락으로 인해 대용량의 램을 사용하는 주기억장치 데이터베이스 시스템의 구축이 실현 가능하게 되었다. 주기억장치 데이터베이스는 여러 다양한 실시간 응용 분야를 위해 사용되며, 매년 CPU 속도가 60% 정도 증가되고, 메모리 속도가 10% 증가되는 현실에서, 케쉬 미스(Cache miss)를 얼마나 줄이느냐 하는 문제가 주기억장치 데이터베이스의 검색 성능 측면에서 가장 중요한 문제로 대두되고 있다. 본 논문에서는 이러한 환경을 고려한 실시간 모바일 GIS응용을 위한 주기억장치 데이터베이스 시스템을 설계 및 구현한다. 본 시스템은 크게 PDA를 사용하는 모바일 사용자를 위한 인터페이스 관리기와 가상 메모리 기법을 사용해 전체 데이터를 주기억장치에 상주시키며 관리하는 주기억 데이터 관리기, 공간 및 비 공간 질의를 처리하는 질의처리기, 새롭게 제시하는 공간 데이터를 위한 MR-트리 인덱스와 비 공간 데이터를 위한 T-트리 인덱스 구조를 관리하는 인덱스 관리기, 데이터를 디스크에 저장하기 위한 GIS 서버 인터페이스로 구성된다. 새롭게 제시하는 공간 인덱싱을 위한 MR-트리는 노트 분할이 발생될 경우, 입력 경로 상에 하나 이상의 빈 엔트리를 지니는 노드가 존재할 경우에만, 노드 분할을 상위로 전송한다. 그러므로 중간 노드들은 항상 100%에 가깝게 채워져 있게 된다. 본 논문의 실험 결과, 2차원의 MR-트리는 기존의 R-트리에 비해 2.4배 이상의 빠른 검색 속도를 나타냈다. 한편, 주 기억 데이터 관리기는 가상 메모리 제공을 위해 전체 벡터 데이터 및 MR-트리, T-트리, 데이터 객체 텍스트 정보를 페이지 단위로 분할하여 관리하고, 간접 주소 기법을 사용하여 디스크로부터의 재 로딩시 발생할 수 있는 문제점을 제거하였다.

데이타 배치 방식에 따른 캐쉬 일관성 유지 기법의 성능 평가 (Performance Evaluation of Cache Coherence Scheme for Data Allocation Methods)

  • 이동광;권혁성;안병철
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권6호
    • /
    • pp.592-598
    • /
    • 2000
  • 분산 공유 메모리(Distributed Shared Memory) 시스템에서 데이타 참조의 지역성은 시스템 성능에 중요한 영향을 미친다. 데이타 참조의 지역성을 고려하여 적절하게 데이타를 배치할 경우 전체적인 시스템 성능 향상을 가질 수 있다. 본 논문에서는 데이타 배치 방식을 효과적으로 적용할 수 있는 동적제한 디렉터리 기법에서 성능을 평가한다. 데이타 배치 방식 정보는 동적 제한 디렉터리 기법에서 존재 비트를 효과적으로 이용할 수 있다. 그리고 적절한 존재 비트의 사용은 메모리 오버헤드를 줄이고 디렉터리 풀을 효율적으로 사용하므로 성능을 향상시킬 수 있다. 성능 평가를 위해 서로 다른 공유 특성을 가진 3개의 응용 프로그램으로 모의 실험하였다. 모의 실험 결과 최적 배치 방식은 3.6 배의 성능을 향상시킬 수 있다.

  • PDF

클라우드 시스템에서 해양수치모델 성능 최적화 (Performance Optimization of Numerical Ocean Modeling on Cloud Systems)

  • 정광욱;조양기;탁용진
    • 한국해양학회지:바다
    • /
    • 제27권3호
    • /
    • pp.127-143
    • /
    • 2022
  • 최근 클라우드 컴퓨팅 환경에서 해양수치모델 실험을 수행하는 많은 연구가 활발하게 진행되고 있다. 클라우드 컴퓨팅 환경은 대규모 자원이 필요한 해양수치모델을 구현하는데 매우 효과적인 수단이 될 수 있다. 정보처리 기술의 발달로 클라우드 컴퓨팅 시스템은 가상화와 원격 고속 네트워크, 직접 메모리 액세스와 같은 수치모델의 병렬처리에 필요한 다양한 기술과 환경을 제공한다. 이러한 새로운 기능은 클라우드 컴퓨팅 시스템에서 해양수치모델링 실험을 용이하게 한다. 많은 과학자들과 엔지니어들은 해양수치모델 실험에 있어서 가까운 미래에 클라우드 컴퓨팅이 주류가 될 것으로 기대하고 있다. 해양수치모델링을 위한 클라우드 컴퓨팅의 처리성능 분석은 수치모델의 수행 시간과 리소스 활용량을 최소화하는 데 도움이 될 수 있으므로 최적의 시스템을 적용하는 데 필수적이다. 특히 모델 격자 내 다양한 변수들이 다차원 배열 구조로 되어 있기 때문에 대량의 입출력을 처리하는 해양수치모델의 구조는 캐시메모리의 효과가 크며, 대량의 자료가 이동하는 통신 특성으로 인해서 네트워크의 속도가 중요하다. 최근에 주요한 컴퓨팅환경으로 자리잡고 있는 클라우드 환경이 이러한 해양수치모델을 수행하기에 적합한지 실험을 통해서 검토할 필요가 있다. 본 연구에서는 상용 클라우드 시스템에서 해양수치모델로 대표적인 Regional Ocean Modeling System (ROMS)와 더불어 다른 해양모델의 클라우드 환경으로 전환에도 도움이 될 수 있게 병렬처리 시스템의 성능을 측정할 수 있는 표준 벤치마킹 소프트웨어 패키지인 High Performance Linpack을 활용하여 초당 부동소수점 연산횟수 처리능력과 및 STREAM 벤치마크를 활용하여 다중 노드들로 구성된 수치모델용 클러스터의 메모리처리성능을 평가하고 비교하였다. 이러한 평가내용은 클라우드 환경에서 해양수치모델을 어떻게 수행할 것인가에 대해 중요한 정보를 제공할 수 있다. 가상화 기반 상용 클라우드에서 얻은 실제 성능 자료와 구성 설정 분석을 통해 가상화 기반 클라우드 시스템에서 해양수치모델의 다양한 격자 크기에 대한 컴퓨터 리소스의 효율성을 평가했다. 본 연구를 통해서 캐시 계층과 용량이 큰 메모리를 사용하는 HPC 클러스터가 ROMS의 성능에 매우 중요하다는 것을 발견했다. 수치모델링의 실행 시간을 줄이기 위해 코어 수를 늘리는 것은 작은 격자 보다 큰 격자 모델에서 더 효과적이다. 이러한 처리 성능 분석 결과는 클라우드 컴퓨팅 시스템에서 해양수치모델을 효율적으로 구축하는 데 중요한 자료로 이용될 것이다.