• 제목/요약/키워드: LRU 알고리즘

검색결과 45건 처리시간 0.026초

요구 페이징 기반 가상메모리 페이지 교체 알고리즘의 구현 및 성능 분석 (Implementation and Performance Analysis of Virtual Memory Page Replacement Algorithms Based on Demand Paging)

  • 박경모;윤여훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.1757-1760
    • /
    • 2005
  • 요구 페이징 방식의 가상메모리 시스템에서 페이지 참조 스트링에 따른 페이지 교체 알고리즘의 성능평가를 위한 시뮬레이션을 개발한다. 참조 집약성을 기반으로 워킹세트(working set) 모델을 수정한 MWS 교체 알고리즘을 제안하였고 다양한 교체 알고리즘(FIFO, SC, LFU, LRU, Rand)들과 비교 실험한 결과 MWS는 발생 페이지 부재 수 측면에서 다른 교체 정책 보다 성능이 우수하였다.

  • PDF

NAND 플래시메모리를 위한 가상메모리의 쓰기 참조 분석 및 페이지 교체 알고리즘 설계 (Analyzing Virtual Memory Write Characteristics and Designing Page Replacement Algorithms for NAND Flash Memory)

  • 이혜정;반효경
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권6호
    • /
    • pp.543-556
    • /
    • 2009
  • 최근 NAND 플래시메모리를 모바일시스템의 파일저장용 뿐 아니라 가상메모리의 스왑장치용으로 사용하려는 시도가 늘고 있다. 가상메모리의 페이지 참조는 시간지역성이 지배적이어서 LRU 및 이를 근사시킨 CLOCK 알고리즘이 널리 사용된다. 한편, NAND 플래시메모리는 읽기 연산에 비해 쓰기 연산의 비용이 높아 이를 고려한 페이지 교체 알고리즘이 필요하다. 본 논문에서는 가살메모리의 읽기/쓰기 참조 패턴을 독립적으로 분석하여 시간지역성이 강한 읽기 참조와 달리 쓰기 참조의 경우 시간지역성의 순위 역전 현상이 발생함을 발견하였다. 이에 근거하여 본 논문은 쓰기의 재참조 성향 예측을 위해 시간지역성뿐 아니라 쓰기 연산의 빈도를 함께 고려하는 페이지 교체 알고리즘을 제안한다. 새로운 알고리즘은 연산별 I/O 비용을 고려해서 메모리 공간을 읽기 연산과 쓰기 연산에 독립적으로 할당하고 참조 패턴의 변화에 적응해 할당 공간을 동적으로 변화시킨다. 알고리즘의 시간 오버헤드가 매우 적어 가상메모리 시스템에서 사용될 최적의 조건을 갖추고 있으며 파라미터 설정이 필요 없음에도 CLOCK, CAR, CFLRU 알고리즘에 비해 20-66% 정도의 I/O 성능을 향상시킴을 보였다.

WWCLOCK: 플래시 메모리의 비대칭적 입출력 비용을 고려한 페이지 교체 알고리즘 (WWCLOCK: Page Replacement Algorithm Considering Asymmetric I/O Cost of Flash Memory)

  • 박준석;이은지;서현민;고건
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권12호
    • /
    • pp.913-917
    • /
    • 2009
  • 낸드 플래시 메모리는 하드디스크와 달리 읽기 입출력과 쓰기 입출력이 소모하는 시간 및 전력량이 다르며 그 비율은 SLC, MLC, SSD 등 다양한 형태에 따라 상이하다. 특히 최근에는 내장 메모리 장치와 함께 외장 메모리 카드 또는 USB 메모리를 동시에 사용하는 경우도 증가하고 있어서, 버퍼 캐시 교체 알고리즘을 설계하는 데 있어서 페이지의 재참조 확률뿐 만 아니라 접근 장치와 참조 종류에 따른 입출력 비용을 함께 고려해야 한다. 본 논문은 페이지의 참조 빈도(frequency), 최근성(recency) 정보와 함께 인기와 쓰기의 입출력 비용을 직접적으로 고려하는 WWCLOCK (Write-Weighted CLOCK) 알고리즘을 제안한다. WWCLOCK은 입출력 비용이 다른 다양한 2차 저장 장치에 대해 적용 가능하며, CLOCK에 가까운 낮은 시간 및 공간 복잡도를 갖고 있다. 트레이스 기반 시뮬레이션을 통해 제안된 알고리즘이 LRU 알고리즘에 비해 전체 입출력 실행 시간을 평균 36.2% 감소시킴을 보인다.

객체지향 데이타베이스에서의 비용기반 버퍼 교체 알고리즘 (A Cost-Based Buffer Replacement Algorithm in Object-Oriented Database Systems)

  • 박종목;한욱신;황규영
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제27권1호
    • /
    • pp.1-12
    • /
    • 2000
  • 많은 객체지향 데이타베이스 시스템들은 객체에 대한 빠른 액세스를 제공하기 위하여 객체 버퍼를 관리한다. 기존의 고정 길이의 페이지를 단위로 하는 교체 알고리즘들은 고정 크기의 페이지의 교체 비용이 일정하므로 버퍼에서 발생하는 비용이 단순히 버퍼 폴트 횟수에 비례한다고 가정하고 있다. 그러나, 객체 버퍼에서는 객체들의 크기와 교체 비용이 객체마다 다르므로 이러한 가정은 더이상 성립하지 않는다. 본 논문에서는 객체버퍼를 위한 비용기반 교체 알고리즘을 제안한다. 제안된 알고리즘은 객체들의 크기 와 교체 비용을 포함하도록 기존의 페이지 기반 모델을 확장한 비용 모텔을 기반으로 단위 시간 및 단위 공간당 비용이 최소가 되도록 하는 객체를 교체한다. 성능 평가 결과에 따르면 이 알고리즘은 기존의 LRU-2에 비해 거의 항상 우수하며 경우에 따라 2배 이상의 성능을 보인다. 비용기반 알고리즘은 기존의 방법들이 적용된 어떤 응용에도 쉽게 적용될 수 있으며, 특히 교체 비용이 일정하지 않은 객체지향 데이타베이스 시스템에서 효율적으로 활용될 수 있다.

  • PDF

파일 타입을 이용한 웹 캐싱 (Web Caching using File Type)

  • 임재현;이준연
    • 정보처리학회논문지C
    • /
    • 제9C권6호
    • /
    • pp.961-968
    • /
    • 2002
  • 본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다.

이동체 데이터베이스를 위한 통합 색인의 이주 정책 (Migration Policies of a Unified Index for Moving Objects Databases)

  • 정지원;안경환;서영덕;홍봉희
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 봄 학술발표논문집 Vol.31 No.1 (B)
    • /
    • pp.112-114
    • /
    • 2004
  • 무선 통신 기술의 발달로 인하여 LBS(Location Based System)와 같은 새로운 이동체 관련 서비스가 생겨나고 있다. 위치 기반 서비스에서 클라이언트인 이동체들이 주기적으로 보고하는 위치 데이터를 실시간으로 처리하기 위해 서버에서는 메인 메모리 DBMS를 유지하는 것이 필요한데, 데이터의 양이 계속적으로 증가하는 특성으로 인해 메인 메모리의 공간이 부족할 때 데이터를 디스크로 옮기는 시스템 설계가 필요하다. 그러나 기존의 연구는 대용량 이동체 환경에서의 색인 이주를 위한 노드 선택 정책과 이주를 위해 선택된 노드들의 디스크 배치 정책을 통합하여 나타내지 못하였다. 그러므로 대용량 이동체 데이터베이스 시스템 환경에 적합한 이주 정책들에 대한 연구가 필요하다. 이 논문에서는 대용량 이동체 데이터베이스 환경을 고려한 노드 선택 정책과 디스크 배치 정책을 분류하고 새로운 이주 정 책을 제시한다. 노드 선택 정책으로는 질의 성능을 위해서 캐쉬의 LRU(Least Recently Used) 정책을 이용한 변형된 LRU정책을 제시하고, 삽입 우선 정책으로는 이동체 색인인 R-tree의 삽입 알고리즘을 역이용한 정책을 제시한다. 또한 이주되는 노드들에 대한 디스크 페이지 배치가 시스템의 질의 성능에 영향을 미치므로 이를 고려한 디스크 배치 정책을 제시한다.

  • PDF

VCCN에서 Content Store 교체 알고리즘의 성능에 관한 연구 (A Study on Performance of Content Store Replacement Algorithms over Vehicular CCN)

  • 최종인;강승석
    • 문화기술의 융합
    • /
    • 제6권1호
    • /
    • pp.495-500
    • /
    • 2020
  • 자동차를 기반으로 하는 애드 혹 네트워크 중 하나인 Vehicular Ad Hoc Network(VANET)은 자율 주행차와 커넥티드 카 등의 기술 개발과 더불어 많은 연구가 진행 중인 주제 중 하나이다. VANET을 구현하는 경우 기존의 TCP/IP를 이용한 연구도 진행하고 있지만, Content Centric Networking (CCN)을 이용한 VANET over CCN (VCCN) 관련 연구도 다양한 장점으로 인해 높은 실현 가능성을 보여주고 있다. 본 논문은 CCN 노드들이 관리하는 전송관련 정보 테이블 중에서 Content Store(CS)에 할당된 공간이 모두 사용되어 새로운 항목을 추가할 경우 기존의 일부 항목을 교체하는 경우에 사용되는 다양한 교체 알고리즘의 성능을 평가하고 특정 네트워크 상황에서의 전송특성을 분석하였다. 모의실험 결과, LRU 교체 알고리즘의 성능이 다른 세 가지 교체 알고리즘 보다 우수하였다. 또한 CS 의 크기가 작더라도 전송 성능이 일정 수준을 유지하였으며, CS의 크기가 클수록 전송 성능은 그에 비례하여 상승하였다. 네트워크가 혼잡한 경우 또는 전송 노드 사이의 거리가 먼 경우 데이터 전송 성능도 감소하였다.

NAND 플래시 메모리 저장장치를 위한 요구 페이징 기법 연구 (A Study on Demand Paging For NAND Flash Memory Storages)

  • 유윤석;류연승
    • 한국멀티미디어학회논문지
    • /
    • 제10권5호
    • /
    • pp.583-593
    • /
    • 2007
  • 본 논문에서는 플래시 메모리 기반의 가상 메모리 시스템에서 페이지 부재를 처리하는 과정에 있어서 플래시 메모리에 대한 삭제연산을 줄여 시스템에서의 전력 소모를 줄일 수 있고 플래시 메모리를 균등하게 사용함으로써 플래시 메모리의 마모도 평준화 정도를 좋게 할 수 있는 CFLRU/C, CFLRU/E, DL-CFLRU/E 페이지 교체 알고리즘을 연구하였다. 제안한 기법은 메인 메모리의 페이지를 클린 페이지와 더티 페이지로 구분하고 가장 오랫동안 사용되지 않았던 페이지들 중에서 클린 페이지를 빅팀으로 선택한다. 이때, 클린 페이지가 없다면 CFLRU/C 기법은 정해진 윈도우 내에서 참조 횟수가 가장 적은 더티 페이지를 빅팀으로 선택하고, CFLRU/E 기법은 페이지가 속한 블록의 삭제 연산 횟수가 적은 더티 페이지를 빅팀으로 선택한다. DL-CFLRU/E 기법은 클린 페이지 리스트와 더티 페이지 리스트를 따로 관리하며 페이지 부재가 발생할 때 우선 클린 페이지 리스트에서 클린 페이지를 선택하며, 클린 페이지 리스트가 빈 경우, 더티 페이지 리스트에서 블록 삭제 연산 횟수가 적은 페이지를 선택한다. 본 논문에서는 시뮬레이션을 통해서 제안한 기법이 기존 기법들(LRU, CFLRU)보다 플래시 메모리의 삭제 연산을 줄일 수 있었고, 마모도 평준화 정도를 향상시킬 수 있음을 보였다.

  • PDF

시간 지역성과 인기 편향성을 가진 데이터 참조의 모델링 (Modeling of Data References with Temporal Locality and Popularity Bias)

  • 반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권6호
    • /
    • pp.119-124
    • /
    • 2023
  • 본 논문은 시간 지역성과 인기 편향성을 가진 데이터 참조를 나타낼 수 있는 새로운 참조 모델을 제안한다. 기존의 참조 모델 중 대표적인 LRU 스택 모델은 시간 지역성, 즉 최근에 참조된 데이터가 다시 참조될 가능성이 높은 성질을 나타낼 수 있으나, 데이터의 서로 다른 인기도를 고려할 수 없는 약점이 있다. 이와 반대로 데이터의 서로 다른 인기도를 반영할 수 있는 모델로 독립 참조 모델이 있으나, 시간에 따른 데이터 참조 성향의 변화를 모델링할 수 없는 한계가 있다. 본 논문이 제시하는 참조 모델은 이 두 모델의 한계를 극복하여 서로 다른 데이터의 인기도와 시간에 따른 참조 성향의 변화를 모두 반영할 수 있는 특징이 있다. 또한, 본 논문에서는 캐쉬 교체 알고리즘과 참조 모델의 연관성에 대해 살펴보고 제안한 모델의 최적성에 대해 보인다.

프록시 서버를 이용한 DAVIC VOD 시스템의 설계 (Server network architectures for VOD service)

  • 안경아;최훈
    • 한국통신학회논문지
    • /
    • 제23권5호
    • /
    • pp.1229-1240
    • /
    • 1998
  • VOD 서비스 시스템에서의 시간 지연을 줄이기 위하여 캐싱 기능을 갖는 프록시 서버를 이용한 DAVIC VOD 서비스 제공 방식을 제안한다. 프록시 서버는 서비스 제공자와 사용자 사이에 위치하며 서비스 제공자가 보유한 일부 프로그램을 캐싱하여 사용자에게 제공한다. 프록시 서버를 사용하면 서비스 제공자와 네트워크의 부하를 줄일 수있다. 프록시 서버의 동작은 요구된 프로그램이 자신의 디스크에 있는 경우와 없는 경우로 구분된다. 첫번째 경우 프록시 서버가 서비스를 제공하고 두번째 경우는 서비스 제공자로 부터 프로그램을 수신하여 사용자에게 제공하고 동시에 자신의 디스크에 저장하여 캐싱한다. 프록시 서버의 저장공간이 부족하면 캐시 대치 알고리즘을 수행한다. 캐시 대치 알고리즘으로 잘 알려진 LRU. LFU, FIFO중에서 제안한 프록시 서버에 가장 효과적인 방식이 LFU 방법을 이용하는 것이 3개중 가장 효과적임을 시뮬레이션을 이용하여 보였다.

  • PDF