• 제목/요약/키워드: 캐시관리

검색결과 147건 처리시간 0.029초

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

캐시카우 사용자 예측 모델을 통한 리워드형 홈트레이닝 앱의 운영 및 관리 전략에 관한 연구 (A Study on Reward-based Home-training App Users Using a Cash-cow User Prediction Model)

  • 김상화;최진욱;고병완
    • 경영정보학연구
    • /
    • 제23권4호
    • /
    • pp.183-198
    • /
    • 2021
  • 코로나19의 영향으로 인해, 시공간의 제약에서 벗어나 모바일 앱을 통해 화면 속 강사의 동작을 따라 하며 운동을 즐기는 홈트레이닝이 유행하면서 홈트레이닝 앱 시장이 급성장하고 있다. 하지만, 수많은 홈트레이닝 앱이 시장에 출시되고 경쟁이 치열해지면서 앱의 수익성을 확보하기는 더욱 어려워지고 있다. 본 연구에서는 리워드를 통해 인스트림 광고의 시청을 유도하면서 수익성을 확보하는 리워드형 홈트레이닝 앱의 실제 사용자 데이터 분석을 통해 지속가능한 수익성 확보를 위한 앱의 운영 및 관리 전략을 제안하고자 한다. 본 연구의 결과는 다음과 같다. 규칙적으로 트레이닝 영상을 시청하는 앱 사용자에 비해 불규칙적으로 트레이닝 영상을 시청하는 앱 사용자가 캐시 적립 등의 경제적 보상이 없어도 트레이닝 영상을 시청하기 위해 인스트림 광고를 시청하는 캐시카우 사용자일 확률이 더 큰 것으로 나타났다. 규칙적으로 트레이닝 영상을 시청하는 앱 사용자일수록 캐시를 적립하기 위해 영상을 시청하는 경우가 더 많기 때문으로 보인다. 따라서, 어쩌면 역설적으로도 지속가능한 수익성 확보를 위해서는 리워드형 홈트레이닝 앱은 규칙적으로 홈트레이닝 영상을 시청하는 앱 사용자에 비해 불규칙적으로 영상을 시청하는 앱 사용자들이 서비스에 만족하고 지속적으로 앱을 사용할 수 있도록 앱을 운영하고 관리할 필요가 있다고 하겠다.

NUMA 시스템 가상화 환경에서 메모리 접근 지연을 줄이기 위한 VCPU 스케줄링 기법 (A NUMA-aware VCPU Scheduling for Reducing Memory Access Latency in Virtualized Environments)

  • 김정훈;김지홍;엄영익
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(A)
    • /
    • pp.265-267
    • /
    • 2012
  • 최근 들어, 하드웨어 플랫폼은 다수의 코어 아키텍처의 메모리 대역폭을 유지하기 위해 NUMA 구조로 설계되고 있다. 이러한 NUMA 시스템 구조에서 다른 노드의 메모리에 접근할 경우, 더 많은 시간과 비용이 소모된다. 따라서 이를 고려한 스케줄링 기법들이 가상화 혹은 가상화되지 않은 시스템 환경에서 연구되고 있다. 하지만, 아직까지 NUMA 시스템 가상화 환경에서 리모트 접근을 제거함과 동시에 이에 따른 오버헤드를 최소화하는 연구는 없었다. 따라서 본 논문에서는 이러한 환경에서 메모리 접근 지연을 줄이기 위한 VCPU 스케줄링 기법을 제안한다. 본 기법은 노드별 페이지 테이블 관리, LRU 기반 게스트 스케줄러, 캐시 오염 태스크 전용 버퍼 관리 기술을 이용한다. 다른 기법들과의 비교 및 분석 결과에서 알 수 있듯이, 본 기법을 적용할 경우 NUMA 시스템 노드 간 리모트 접근을 없애고, 이에 따른 오버헤드를 최소화하며, 주어진 하드웨어 캐시를 효율적으로 사용할 수 있다.

사용자 기반의 캐싱과 프리패칭을 이용한 분산 가상 환경하에서의 확장성 있는 데이터 관리 기법 (Scalable Data Management Using User-Based Caching and Prefetching in Distributed Virtual Environments)

  • 박성주;이동만;한승현;임민규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (3)
    • /
    • pp.697-699
    • /
    • 2001
  • 가상환경에서의 실시간 상호작용을 지원하기 위해 가상세계의 데이터를 서버에서 클라이언트로 복제 해놓는 방법이 쓰여지고 있다. 효과적인 복제를 위해서는 두 가지 기법 - 우선 순위기반의 객체 전송과 캐싱 및 프리패칭 기법이 쓰이고 있다. 기존의 캐시와 프리패칭 기법들은 사용자와 객체간의 지역적 관계를 이용하고 있지만, 이는 어떤 종류의 객체가 사용자에게 더 중요한 지를 결정할 수 없는 단점이 있다. 본 연구에서는 지역적 관계 뿐 아니라 개별 사용자의 객체에 대한 관심도로부터 발생하는 객체에 대한 우선 순위를 이용하여 사용자 기반의 캐싱과 프리패칭을 사용하는 분산 가상환경 하에서의 확장성 있는 데이터 관리 기법을 제안한다. 또한 이 기법에서는 사용자의 행동 모드를 구분함으로써 더욱 높은 캐시 적중 비율을 얻을 수 있다.

  • PDF

저전력과 응답시간 향상을 위한 하이브리드 하드디스크의 입출력 기법 (I/O Scheme of Hybrid Hard Disk Drive for Low Power Consumption and Effective Response Time)

  • 김정원
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.23-31
    • /
    • 2011
  • 최근 전력소모와 읽기 성능이 우수한 Solid state disk(SSD)가 많이 사용되고 있으나 가격이 고가이고 삭제 및 쓰기 연산의 효율이 낮은 것이 단점이다. 이것을 보완하기 위한 저장장치의 일종이 하이브리드 하드디스크 (H-HDD: Hybrid Hard disk drive)인데 하드디스크 내부에 플래시 메모리(NVCache: Non-volatile Cache)를 장착하여 디스크블록의 캐시로 사용한다. 본 논문에서는 H-HDD의 저전력과 응답시간을 향상시키기 위해 NVCache의 선반입 및 관리 기법을 제안한다. 제안하는 기법은 NVCache를 읽기 캐시를 위주로 사용하고 쓰기캐시는 디스크 헤드와 스핀들의 상황에 따라 쓰기 연산을 지원한다. 읽기 캐시의 경우 시간적, 지역적 지역성을 동시에 고려하여 선반입을 통해 응답시간과 전력 소모를 감소시키고 쓰기 캐시의 경우 디스크 스핀들의 동작 상태에 따라 NVCache에 쓰기를 실시하여 저전력과 응답성을 향상시키고자한다.

앰캐시(Amcache.hve) 파일을 활용한 응용 프로그램 삭제시간 추정방법 (Method of estimating the deleted time of applications using Amcache.hve)

  • 김문호;이상진
    • 정보보호학회논문지
    • /
    • 제25권3호
    • /
    • pp.573-583
    • /
    • 2015
  • 앰캐시(Amcache.hve) 파일은 프로그램 호환성 관리자(Program Compatibility Assistant)와 관련된 레지스트리 하이브 파일로 응용 프로그램의 실행정보를 저장한다. 이 파일을 통해서 응용 프로그램의 실행경로, 최초 실행시간을 확인할 수 있을 뿐 아니라, 삭제시간까지 추정할 수 있다. 응용 프로그램의 최초 설치시간 및 삭제시간까지 확인할 수 있기 때문에 프리패치(Prefetch) 파일, 아이콘캐시(Iconcache.db) 파일 분석과 병행하면 응용 프로그램의 전체적인 타임라인을 구성할 수 있다. 또한, 앰캐시 파일은 안티포렌식 프로그램, 포터블 프로그램 및 외장저장장치 흔적을 기록하고 있어 디지털 포렌식 관점에서 중요한 아티팩트이다. 본 논문에서는 앰캐시 파일의 특성과 응용 프로그램 삭제시간 추정 등 디지털 포렌식 기술로서의 활용방안을 제시한다.

페이지 주소 캐시를 활용한 NAND 플래시 메모리 파일시스템에서의 효율적 주소 변환 테이블 관리 정책 (An Efficient Address Mapping Table Management Scheme for NAND Flash Memory File System Exploiting Page Address Cache)

  • 김정길
    • 디지털콘텐츠학회 논문지
    • /
    • 제11권1호
    • /
    • pp.91-97
    • /
    • 2010
  • 비휘발성, 저전력 소모, 안정성 등의 장점을 가진 NAND 플래시 메모리는 고집적화, 대용량화, 저가격화를 통하여 다양한 디지털시스템의 데이터 저장장치로 사용되고 있다. 플래시 메모리의 다양한 분야에서의 응용 확대와 동시에 플래시 메모리의 대용량화는 플래시 메모리의 주소 변환 테이블의 전체 크기를 증가시켜 SRAM에 저장하기에 용량이 부족한 문제점을 발생시킨다. 본 논문에서는 하이브리드 변환 기법 기반의 플래시 메모리 파일 시스템에서 페이지 주소 캐시를 이용한 효율적인 주소 테이블 관리 정책을 제안한다. 제안하는 기법은 다양한 메타 데이터 기반의 전체 테이블의 정보를 맵블록을 이용하여 효율적으로 통합 관리함으로써 높은 성능을 유지할 수 있다. PC 환경에서의 다양한 응용프로그램을 실험한 결과 제안하는 페이지 주소 캐시는 2.5% 이하의 낮은 미스율로 높은 효율성을 유지하며 전체 쓰기 연산 요청에서 평균 33%의 실제 쓰기 연산의 실행으로 전체 쓰기 연산에서 발생하는 오버헤드를 줄여 주었다.

VOD 시스템에서의 Interchange Agent 운영 알고리즘 (Interchange Algorithm for VoD System)

  • 강석훈;박수현
    • 한국정보통신학회논문지
    • /
    • 제9권8호
    • /
    • pp.1847-1854
    • /
    • 2005
  • 기존 VoD 시스템의 멀티캐스트 방법은 사용자의 요청수가 증가함에 따라 시스템 부하가 증가하게 되어 시스템의 성능이 떨어지게 된다. 본 논문에서는 사용자들이 빈번하게 요청하는 인기비디오에 대한 정보를 프록시 서버에 저장 관리하여, 사용자들의 비디오 요청 시 발생하는 네트워크의 사용과 서버의 부하를 줄이는 방법에 대해 연구하였다. 본 논문에서는 효율적인 VoD 서비스를 위해 멀터 프록시(Multi-Proxies)들을 관리하는 Interchange Agent(IA)를 구축하였다. 이를 위해, 멀티캐스팅 기법을 이용하여 사용자의 동일 비디오 요청을 하나로 묶어 처리하여 네트워크 및 서버의 부하를 줄고, 자신의 리스트를 이용하여 멀티프록시 캐시의 내용을 중복 없이 관리하여 시스템 효율을 높이며, 스위칭 기능을 통하여 사용자가 요청한 비디오가 연결된 다른 프록시에 존재하면 이를 스위칭 채널을 통해 즉시 전송하여 실시간 서비스의 효율을 높이고, 각 프록시 캐시의 임시저장장소와 카운터를 이용하여 사용자의 인기비디오 순위 변경 시, 캐시의 내용을 변경하여 그 흐름을 반영하도록 하였다.

멀티코어 환경에서 효율적인 트랜잭션 처리를 위한 메모리 관리 기반 하이브리드 트랜잭셔널 메모리 기법 (Memory Management based Hybrid Transactional Memory Scheme for Efficiently Processing Transactions in Multi-core Environment)

  • 장연우;강문환;장재우
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.795-798
    • /
    • 2017
  • 최근 멀티코어 프로세서가 개발됨에 따라 병렬 프로그래밍은 멀티코어를 효과적으로 활용하기 위한 기법으로 그 중요성이 높아지고 있다. 트랜잭셔널 메모리는 처리 방식에 따라 HTM, STM, HyTM으로 구분되며, 최근 HTM 및 STM 결합한 HyTM 이 활발히 연구되고 있다. 그러나 기존의 HyTM 는 HTM과 STM의 동시성 제어를 위해 블룸필터를 사용하는 반면, 블룸필터의 자체적인 긍정 오류를 해결하지 못한다. 아울러, 트랜잭션 처리를 위한 메모리 할당/해제를 기존의 락 메커니즘을 사용하여 관리한다. 따라서 멀티코어 환경에서 스레드 수가 증가할수록 트랜잭션 처리 효율이 떨어진다. 본 논문에서는 멀티코어 환경에서 효율적인 트랜잭션 처리를 위한 메모리 관리 기반 하이브리드 트랜잭셔널 메모리 기법을 제안한다. 제안하는 기법은 트랜잭션 처리에 최적화된 블룸필터를 제공함으로써, 병렬적으로 동시에 수행되는 서로 다른 환경의 트랜잭션에 대해 일관성 있는 처리를 지원한다. 아울러, CPU 캐시라인에 최적화된 메모리 기법을 통해, 메모리 할당량이 적은 트랜잭션은 로컬 캐시에 할당함으로써 트랜잭션의 빠른 처리를 지원한다.

데이터 접근 패턴을 고려한 요구 기반 FTL 내 캐시의 동적 관리 기법 (Dynamic Cache Management Scheme on Demand-Based FTL Considering Data Access Pattern)

  • 이빛나;송내영;고건
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(A)
    • /
    • pp.547-550
    • /
    • 2011
  • 플래시 메모리는 낮은 전력 소비와 높은 성능으로 인해 휴대용 기기에 널리 사용되고 있다. FTL은 플래시 내 자료를 관리하는 소프트웨어 계층으로 플래시 전체의 성능에 영향을 끼친다. 그 중 페이지 레벨 매핑 기법을 적용한 FTL은 유연성이 높고 속도가 빠르나 주소 변환 테이블의 크기가 큰 단점이 있다. 이를 해결하기 위해 자주 접근되는 영역의 매핑 주소만을 매핑 테이블 캐시에 올려놓는 Demand-based FTL(DFTL)이 제안되었다. DFTL 에서는 CMT(Cache Mapping Table)의 참조율이 떨어지는 경우 빈번한 플래시 메모리 접근 오버헤드가 발생하게 된다. 이러한 문제는 흔히 발생하는 일반적인 순차 접근에서조차 문제가 된다. 이에 본 논문에서는 저장 장치의 접근 패턴을 예측하여 CMT의 참조 엔트리를 미리 읽어오는 기법을 제안한다. 제안하는 기법은 저장 장치 접근 패턴의 순차성을 판단하여 연속된 매핑 주소를 미리 CMT에 올려놓고, 읽어오는 매핑 주소 엔트리의 양은 동적으로 관리한다. 추가적으로 CMT에서 발생하는 스래싱(thrashing) 을 파악하기 위해 쫓겨나는 희생 엔트리의 접근 여부를 분석하여 이를 활용하였다. 실험 결과에서 본 기법은 기존의 DFTL에 비해 약간의 공간 오버헤드와 함께 평균 50% 증가한 참조율을 보였다.