• Title/Summary/Keyword: data cache

Search Result 487, Processing Time 0.023 seconds

이동 컴퓨팅 환경에서 비동기적 데이터방송을 사용한 동시성 제어 기법 (Concurrency Control Method using the Asynchronous Data Broadcast in Mobile Computing Environments)

  • 고승민;김대인;임선모;황부현
    • 정보처리학회논문지D
    • /
    • 제12D권1호
    • /
    • pp.21-30
    • /
    • 2005
  • 이동 컴퓨팅 환경에서 이동 호스트는 대역폭의 사용을 줄이고 이동 트랜잭션의 응답 시간을 향상시키기 위하여 캐쉬를 사용한다. 그리고 서버는 이동 호스트의 캐쉬 일관성을 유지하기 위해서 주기적으로 갱신된 데이터를 방송한다. 그러나 무효화 보고서를 사용한 캐쉬 일관성 유지기법은 이동 트랜잭션의 완료 결정을 지연한다는 문제점을 가지고 있다. 본 논문에서는 캐슁된 데이터를 사용하여 이동 트랜잭션을 수행하는 경우 이동 트랜잭션의 직렬 가능한 수행을 보장하는 CCM-AD 방법을 제안한다. 제안하는 CCM-AD 방법은 서버에서 이동 호스트에게 방송한 데이터와 갱신된 데이터와의 교집합을 구하여 공통되는 데이터를 요청 데이터와 함께 방송함으로써 이동 트랜잭션의 직렬 가능한 수행을 보장한다. 그리고 수행 후 완료 결정을 위한 이동 트랜잭션의 지연도 줄일 수 있다. 또한 주기적으로 방송하는 무효화 보고서의 메시지 크기도 줄일 수 있다.

불필요한 콜백을 제거한 회피 기반의 캐쉬 일관성 알고리즘 (An Avoidance-Based Cache Consistency Algorithm without Unnecessary Callback)

  • 김치연
    • 한국항행학회논문지
    • /
    • 제10권2호
    • /
    • pp.120-127
    • /
    • 2006
  • 클라이언트의 데이터 캐슁은 클라이언트에서 데이터가 캐쉬되고 운영되는 환경에서 서버와의 상호작용을 하기 위한 중요한 기술이다. 캐슁은 네트워크 지연을 감소시키고 클라이언트의 자원 활용을 증가시키는 방법이다. 이와 같은 클라이언트-서버 환경에서 클라이언트에서 수행되는 응용 프로그램의 정확성을 보장하기 위해서는 캐쉬 일관성 알고리즘이 필요하다. 이 논문에서는 새로운 비동기적 회피 기반의 캐쉬 일관성 알고리즘을 제안한다. 제안하는 방법에서는 잠금 모드를 단순하게 유지하고, AACC에서 잠금 상승으로 인하여 발생하는 불필요한 callback 메시지를 제거함으로써 AACC보다 적은 메시지 교환을 가짐을 보였다. 제안하는 알고리즘의 정확성을 증명하기 위해서는 1-사본 직렬성을 사용하였다.

  • PDF

SAN 환경의 대용량 클러스터 파일 시스템을 위한 광역 버퍼 관리기의 설계 (Design of Global Buffer Manager in SAN-based Cluster File Systems)

  • 이규웅
    • 한국정보통신학회논문지
    • /
    • 제15권11호
    • /
    • pp.2404-2410
    • /
    • 2011
  • 본 논문은 SAN 기반의 클러스터 파일 시스템 $SANique^{TM}$의 설계 고려사항을 설명하고 특히 대규모의 호스트들이 연결된 상황에서 광역 버퍼 관리기의 데이터 공유 문제점을 기술하고 클러스터 환경에서 확장성과 가용성을 제공하기 위한 광역 버퍼 관리 기법을 제시한다. 제안하는 광역 버퍼 관리 기법은 $SANique^{TM}$ 시스템의 로크 관리기에서 관리되는 로크 정보를 활용하여 부가적인 통신 및 시간소요 없이 효율적인 데이터 공유를 제공하는 방법을 제시하였다. 또한 대규모 클러스터 환경에 적용 가능한 광역버퍼 관리기법의 의사코드 및 데이터 공유 예제를 통하여 본 방법의 효율성을 보였다.

Mobile Ad-hoc Network에서 캐싱 관리 기법에 관한 연구 (A Study on Caching Management Technique in Mobile Ad-hoc Network)

  • 양환석;유승재
    • 융합보안논문지
    • /
    • 제12권4호
    • /
    • pp.91-96
    • /
    • 2012
  • 무선 네트워크의 많은 분야 중에서 MANET(Mobile Ad-hoc Network)은 상당히 발전이 되어있는 기술이다. MANET을 구성하는 노드들은 다중 홉 무선 연결을 이용하여 데이터 전달을 하게 된다. 이러한 환경에서 노드들의 데이터 접근 성능과 가용성을 향상시킬 수 있는 방법이 캐싱 기법이다. 기존의 많은 연구들은 이동 노드들의 다중 홉 연결을 향상시키기 위해 동적인 라우팅 프로토콜에 대해 많은 연구가 이루어져왔다. 그러나 노드들의 이동으로 인하여 유효한 캐시 정보의 관리 및 유지가 쉽지 않다. 본 논문에서는 이동 노드가 원하는 정보의 캐시 발견시 오버헤드를 줄이고 노드들의 이동으로 인한 연결 관리를 위해 클러스터 기반 캐싱 기법을 제안하였다. 그리고 각 클러스터 헤드에서 유효한 캐시 테이블을 유지할 수 있도록 하기 위해 HLP를 이용하였다. 본 논문에서 제안한 기법의 효율성은 실험을 통해 확인하였다.

Group Master Cache를 활용한 SAN과 NAS의 통합 방안 (Application of Group Master Cache for the Integrated Environment of SAN and NAS)

  • 이원복;박진원
    • 한국시뮬레이션학회논문지
    • /
    • 제16권2호
    • /
    • pp.9-15
    • /
    • 2007
  • 인터넷이 급성장하고 멀티미디어와 같은 대용량 데이터의 사용이 증가함에 따라 스토리지 시스템은 스토리지가 서버에 직접 연결되어 있던 DAS에서. 스토리지를 별개의 전용 네트워크로 연결한 SAN, 그리고 스토리지가 IP 네트워크에 연결되어 파일 서비스 기능만 전담하는 NAS로 발전하게 되었다. 그러나 SAN과 NAS를 독립적으로 사용하면 다양한 기업의 요구를 충족시키지 못한다. 그래서 등장한 것이 SAN과 NAS의 통합이다. 본 연구에서는 SAN과 NAS의 통합 방법의 하나인 MCI(Metadata server and Cluster Interation)를 바탕으로, MCI의 구현과 확장에 따른 비용 증가 문제를 해결하기 위해 GMC(Group Master Cahce)라는 개념을 제안하여 보다 효율적인 데이터 공유 방안을 제시한다. CMC의 기본 개념을 소개하고 기존의 MCI와 새로 제시하는 GMC를 컴퓨터 시뮬레이션을 통해 성능 측면에서 비교 분석하였다.

  • PDF

분산 디렉토리 시스템에서의 원격 질의에 대한 캐싱 기법 (A Caching Mechanism for Remote Queries in Distributed Directory Systems)

  • 이강우
    • 한국정보처리학회논문지
    • /
    • 제7권1호
    • /
    • pp.50-56
    • /
    • 2000
  • 본 논문에서는 분산 디렉토리 시스템에서 질의 처리 속도를 향상시키기 위하여 원격지의 객체에 대한 질의와 결과를 요청지의 캐시에 저장하는 캐싱 메카니즘을 제안한다. 이를 위하여 첫째, 분산 디렉토리 시스템에 저장되는 캐시 정보를 응용 데이터 정보, 시스템 데이터 정보로 분류하고, 분류된 캐시 정보를 기반으로 캐시 시스템 구조를 설계하였다. 둘째, 각각의 캐시에 대한 거리 정보와 접근 회수를 가중치로 부여한 최소-TTL 대체 기법을 개발하였다. 마지막으로 제안된 캐시 기법과 타 기법(LRU, LFU 대체 기법)에 대하여 성능 평가를 수행하여 제안된 기법이 LRU 기법 보다 25%의 성능향상을 보였으며, LFU 기법보다는 30%의 성능향상 결과를 보였다.

  • PDF

Task failure resilience technique for improving the performance of MapReduce in Hadoop

  • Kavitha, C;Anita, X
    • ETRI Journal
    • /
    • 제42권5호
    • /
    • pp.748-760
    • /
    • 2020
  • MapReduce is a framework that can process huge datasets in parallel and distributed computing environments. However, a single machine failure during the runtime of MapReduce tasks can increase completion time by 50%. MapReduce handles task failures by restarting the failed task and re-computing all input data from scratch, regardless of how much data had already been processed. To solve this issue, we need the computed key-value pairs to persist in a storage system to avoid re-computing them during the restarting process. In this paper, the task failure resilience (TFR) technique is proposed, which allows the execution of a failed task to continue from the point it was interrupted without having to redo all the work. Amazon ElastiCache for Redis is used as a non-volatile cache for the key-value pairs. We measured the performance of TFR by running different Hadoop benchmarking suites. TFR was implemented using the Hadoop software framework, and the experimental results showed significant performance improvements when compared with the performance of the default Hadoop implementation.

버추얼 인터페이스 아키텍처 및 인터벌 캐쉬에 기반한 분산 VOD 서버 (A Distributed VOD Server Based on Virtual Interface Architecture and Interval Cache)

  • 오수철;정상화
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권10호
    • /
    • pp.734-745
    • /
    • 2006
  • 본 논문에서는 VIA(Virtual Interface Architecture) 통신 프로토콜과 인터벌 캐쉬 기법을 적용하여 서버 내부 통신망의 부하를 감소시킨 PC 클러스터 기반 분산 VOD 서버를 제안한다. 분산 VOD 서버의 각 노드는 클러스터상에 분산 저장된 비디오 데이타를 서버 내부 통신망을 사용하여 전송받아 사용자에게 제공한다. 이 때, 대량의 비디오 데이타가 서버 내부 통신망을 통하여 전송됨으로 서버 내부 통신망에 부하가 증가한다. 본 논문에서는 TCP/IP의 통신 오버헤드를 제거한 사용자 수준 통신 프로토콜인 VIA에 기반한 분산 VOD 파일 시스템을 개발함으로써, 원격 디스크를 접근하는데 소요되는 내부 통신망 비용을 최소화하려고 하였다. 또한, VIA의 최대 전송 크기를 VOD 시스템에 맞게 확장함으로써 내부 통신망의 성능을 향상시키려고 하였다. 추가로 본 논문은 인터벌 캐쉬 기법을 적용하여 원격 서버 노드에서 전송 받은 비디오 데이타를 지역 노드의 메인 메모리에 캐쉬함으로써, 서버 내부 통신망에 발생하는 통신량을 감소시켰다. 실험을 통하여 분산 VOD 서버의 성능을 측정하였으며, TCP/IP에 기반하고 인터벌 캐쉬를 지원하지 않는 기존의 분산 VOD 서버와 성능을 비교하였다. 실험결과, VIA 적용으로 약 11.3%의 성능 향상, 그리고 인터벌 캐쉬 기법을 적용하여 추가로 약 10%의 성능 향상이 생겨 총 21.3%의 성능 향상을 얻을 수 있었다.

Cache Memory and Replacement Algorithm Implementation and Performance Comparison

  • Park, Na Eun;Kim, Jongwan;Jeong, Tae Seog
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권3호
    • /
    • pp.11-17
    • /
    • 2020
  • 본 논문은 캐시 시뮬레이션을 통해 각 교체 알고리즘의 캐시 히트(Cache Hit) 및 검색시간을 측정함으로써 캐시 교체 정책에 대한 실용적인 결과를 제시한다. 프로세서의 성능이 향상되면서 캐시 메모리 또한 성능을 향상하기 위한 많은 연구가 활발히 진행되고 있다. 캐시 메모리는 일반적으로 LRU(Least Recently Used) 교체방식을 사용하고 있으며 LRU 방식 이외에도 대표적으로 FIFO(First-In First-Out), LFU(Least Frequently Used) 및 Random 교체방식이 있다. 논문에서는 캐시 메모리 구조 및 교체 알고리즘을 소프트웨어로 구현하여 각 기법의 특징을 분석한다. 논문의 실험결과 LRU 알고리즘이 균등 분포에서 36.044%, 577.936ns, 편향 분포에서 45.636%, 504.692ns의 히트율(Hit ratio)과 검색시간을 보였으며, FIFO 알고리즘은 균등 분포에서 36.078%, 554.772ns, 편향 분포에서 45.662%, 489.574ns로 LRU와 유사한 성능을 보였다. Random 교체방식은 균등 분포에서 30.042%, 622.866ns, 편향 분포에서 36.36%, 553.878%로 가장 낮은 성능을 보였다. 이는 캐시 메모리에서 일반적으로 사용되는 LRU 교체방식이 타 교체 알고리즘보다 최선의 성능을 보이면서도 데이터의 참조 정보를 고려하는 합리적인 알고리즘임을 나타내는 것이다.

범위질의 검색을 위한 캐시적응 T-트리 주기억장치 색인구조 (Cache Sensitive T-tree Main Memory Index for Range Query Search)

  • 최상준;이종학
    • 한국멀티미디어학회논문지
    • /
    • 제12권10호
    • /
    • pp.1374-1385
    • /
    • 2009
  • 최근 CPU의 속도는 메모리의 속도에 비해 훨씬 빠르게 향상되었다. 따라서 주기억 장치의 접근이 주기억장치 데이터베이스 시스템의 성능에서 병목현상으로 나타나고 있다. 기억장치 접근 속도를 줄이기 위해 캐시메모리를 이용하지만, 캐시메모리는 요구되는 데이터가 캐시에서 찾을 수 있는 경우에만 기억장치 접근속도를 줄일 수 있다. 본 논문에서는 $CST^*$-트리라는 범위질의를 위한 새로운 캐시 적응 T-트리 색인구조를 제안한다. $CST^*$-트리는 색인 엔트리를 저장하지 않는 축소된 내부노드들을 캐시메모리에 올려 사용함으로써 캐시메모리의 활용도를 높인다. 그리고 인접한 단말노드들과 내부 색인노드들을 링크포인터를 통해 서로 연결함으로써 색인 엔트리들의 순차적 접근을 가능하도록 한다. 본 논문에서는 성능평가를 위한 비용 모델을 개발하고, 이를 이용하여 캐시미스 발생 횟수를 평가하였다. 그 결과 단일키 값 검색에서는 기존의 캐시만을 고려한 CST-트리에 비해 약 20~30%의 캐시미스 발생 횟수가 감소하였고, 범위질의에서는 기존의 범위질의만을 고려한 색인구조인 $T^*$-트리에 비해 약 10~20%의 캐시미스 발생 횟수가 감소하였다.

  • PDF