• Title/Summary/Keyword: 쓰기 성능

Search Result 364, Processing Time 0.031 seconds

FAST : A Log Buffer Scheme with Fully Associative Sector Translation for Efficient FTL in Flash Memory (FAST :플래시 메모리 FTL을 위한 완전연관섹터변환에 기반한 로그 버퍼 기법)

  • Park Dong-Joo;Choi Won-Kyung;Lee Sang-Won
    • The KIPS Transactions:PartA
    • /
    • v.12A no.3 s.93
    • /
    • pp.205-214
    • /
    • 2005
  • Flash memory is at high speed used as storage of personal information utilities, ubiquitous computing environments, mobile phones, electronic goods, etc. This is because flash memory has the characteristics of low electronic power, non-volatile storage, high performance, physical stability, portability, and so on. However, differently from hard disks, it has a weak point that overwrites on already written block of flash memory is impossible to be done. In order to make an overwrite possible, an erase operation on the written block should be performed before the overwrite, which lowers the performance of flash memory highly. In order to solve this problem the flash memory controller maintains a system software module called the flash translation layer(FTL). Of many proposed FTL schemes, the log block buffer scheme is best known so far. This scheme uses a small number of log blocks of flash memory as a write buffer, which reduces the number of erase operations by overwrites, leading to good performance. However, this scheme shows a weakness of low page usability of log blocks. In this paper, we propose an enhanced log block buffer scheme, FAST(Full Associative Sector Translation), which improves the page usability of each log block by fully associating sectors to be written by overwrites to the entire log blocks. We also show that our FAST scheme outperforms the log block buffer scheme.

A Study on Hetero-RAID Scheme for Hybrid Storage Systems (하이브리드 저장 시스템을 위한 헤테로-레이드 기법에 대한 연구)

  • Byun, Si-Woo;Hur, Moon-Hang
    • Proceedings of the KAIS Fall Conference
    • /
    • 2010.05a
    • /
    • pp.176-178
    • /
    • 2010
  • 본 논문에서는 전통적인 RAID-1 미러링에 기반을 둔 헤테로-미러링이라는 하는 새로운 저장 장치 관리 기법을 제안한다. 헤테로-미러링 기반의 스토리지 관리는 SSD에서 발생 가능한 프리징 현상을 피하기 위한 쓰기-부하 밸런싱과 쓰기 지연 연산을 통하여 RAID-1 처리 성능을 개선한다.

  • PDF

An Efficient Implementation of B-Tree Using Lazy Update on Flash Memory (플래시 메모리 상에서 지연 갱신을 이용한 B-트리의 효율적인 구현)

  • Kim, Bo-Kyeong;Yoo, Min-Hee;Lee, Dong-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.69-72
    • /
    • 2011
  • 플래시 메모리 기반의 저장 시스템은 빠른 접근 속도, 작고 가벼운 특성, 저전력 소모 등의 이유로 하드 디스크를 대체하는 저장 매체로 주목 받고 있다. 플래시 메모리는 하드 디스크와 다르게 읽기 쓰기 소거 연산이 필요하며 수혈 단위와 수혈 시간 이 비대칭적이다. 또한 제자리 갱신이 불가능하기 때문에 가장 느린 소거 동작을 선행하여 갱신 연산을 수행한다. 기존 호스트 시스템은 읽기 쓰기 연산 만을 수행하기 때문에 플래시 메모리를 바로 사용하기 위해서는 별도의 소프트웨어 중간 계층인 플래시 전환 계층이 필요하다. 그러나 디스크 기반의 B-트리를 플래시 전환 계층 위에서 인덱스로 사용하면 B-트리 특성상 제자리 갱신이 빈번하게 발생하기 때문에 성능 저하가 발생한다. 따라서 플래시 메모리 특성을 고려한 새로운 인덱스 구조가 필요하게 되었다. 플래시 메모리 전용의 인덱스 ${\mu}$-트리와 LSB-트리가 제안 되었지만, ${\mu}$-트리는 페이지 관리의 비효율성, LSB-트리는 임시 노드 관리 추가 비용의 문제점을 가지고 있다. 본 논문에서 ${\mu}$-트리와 LSB 트리의 문제점을 해결하기 위하여 지연 갱신을 이용한 B-트리를 제안한다. 제안하는 인덱스는 변경이 일어나는 노드를 메모리에 적재시켜 데이터 삽입 시 노드 갱신을 지연시키고 노드 분할 없이 데이터의 순차 삽입을 처리하여 검색 및 쓰기 성능을 향상시킨다. 본 논문에서는 관련 연구인 ${\mu}$-트리와 LSB-트리를 수식을 통하여 제안하는 인덱스 구조의 우수성을 보인다.

An Improvement of Level-1 Mirrorring Scheme for High-Speed RAID Storage Systems (고속 RAID 저장 시스템를 위한 레벨1-미러링 기법의 개선)

  • Byun, Si-Woo;Hur, Moon-Hang
    • Proceedings of the KAIS Fall Conference
    • /
    • 2010.11a
    • /
    • pp.212-215
    • /
    • 2010
  • 고속 저장 장치로 사용되는 플래시 메모리 기반의 SSD와 전통적인 HDD에 대한 기초 연구와 개선점에 대하여 논하였다. 고속 SSD는 낮은 전력소모, 빠른 데이터 읽기속도 등의 특징으로 데스크톱 및 서버용 데이터베이스의 핵심 저장 요소가 되었다. 하지만, 빠른 읽기 연산에 비하여 상대적으로 느리거나 프리징이 있는 SSD의 쓰기 연산 특성을 고려하여 HDD와 RAID에 기반을 둔 기존의 전통적인 스토리지 관리 기법을 개선할 필요가 있다. 이를 위하여, 본 논문은 전통적인 RAID-1 미러링에 기반을 둔 복합적 미러링 기법을 제안한다. 제안 기법은 SSD에서 발생 가능한 프리징 현상을 피하기 위한 쓰기-부하 밸런싱과 쓰기 지연 연산을 통하여 RAID-1 처리 성능을 개선한다.

  • PDF

A Study on Efficient Management of RAID Level 5 Cache in OLTP Environment under Linux Operating System (리눅스 운영체제하의 OLTP환경에서 RAID 레벨 5의 효율적인 캐쉬 운영 방안에 대한 연구)

  • 송자영;장태무
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04a
    • /
    • pp.3-5
    • /
    • 2000
  • RAID 레벨 5는 쓰기 시에 패리티 갱신을 위한 4번의 디스크 접근으로 인하여 OLTP와 같이 상대적으로 빈번한 디스크 접근을 가지고 데이터 크기가 작으며 쓰기의 횟수가 많은 작업환경에서 성능이 떨어지게 된다. 데이터와 패리티에 대한 캐싱은 OLTP환경에서의 쓰기에 대한 문제를 해결하기 위한 기법이다. 본 논문에서는 리눅스 운영체제의 파일 데이터 구조에 변화를 주고, 커널에서 얻어진 정보를 디스크 캐쉬의 운영에 이용한다. 스트라입 크기(G)를 가지는 RAID 레벌 5에서 패리티 캐쉬의 크기가 전체 캐쉬 크기의 1/G 이하 일 경우 데이터 패리티 캐쉬 크기 변화에 영향을 받지 않고 캐쉬의 그룹 단위 운영과 그에 따른 패리티의 미리 읽기를 가능하게 하여 패리티에 대한 추가적인 읽기를 최소화하는 기법을 제안한다. 본 논문의 실험 결과는 초당 디스크에 도착하는 평균 디스크 접근 요구 개수에 변화를 주어 시뮬레이션 방법으로 입증하였으며, OLTP 환경에서 데이터와 패리티 캐쉬를 독립적으로 운영하는 일반적인 캐쉬 운영 방법에 비해 평균 응답시간을 단축시킬 수 있음을 알 수 있다.

  • PDF

Page Replacement Algorithm for Improving Performance of Hybrid Main Memory (하이브리드 메인 메모리의 성능 향상을 위한 페이지 교체 기법)

  • Lee, Minhoe;Kang, Dong Hyun;Kim, Junghoon;Eom, Young Ik
    • KIISE Transactions on Computing Practices
    • /
    • v.21 no.1
    • /
    • pp.88-93
    • /
    • 2015
  • In modern computer systems, DRAM is commonly used as main memory due to its low read/write latency and high endurance. However, DRAM is volatile memory that requires periodic power supply (i.e., memory refresh) to sustain the data stored in it. On the other hand, PCM is a promising candidate for replacement of DRAM because it is non-volatile memory, which could sustain the stored data without memory refresh. PCM is also available for byte-addressable access and in-place update. However, PCM is unsuitable for using main memory of a computer system because it has two limitations: high read/write latency and low endurance. To take the advantage of both DRAM and PCM, a hybrid main memory, which consists of DRAM and PCM, has been suggested and actively studied. In this paper, we propose a novel page replacement algorithm for hybrid main memory. To cope with the weaknesses of PCM, our scheme focuses on reducing the number of PCM writes in the hybrid main memory. Experimental results shows that our proposed page replacement algorithm reduces the number of PCM writes by up to 80.5% compared with the other page replacement algorithms.

Page Replacement Policy for Memory Load Adaption to Reduce Storage Writes and Page Faults (스토리지 쓰기량과 페이지 폴트를 줄이는 메모리 부하 적응형 페이지 교체 정책)

  • Bahn, Hyokyung;Park, Yunjoo
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.6
    • /
    • pp.57-62
    • /
    • 2022
  • Recently, fast storage media such as phage-change memory (PCM) emerge, and memory management policies for slow disk storage need to be revisited. In this paper, we propose a new page replacement policy that makes use of PCM as a swap device of virtual memory systems. The proposed policy aims at reducing write traffic to the swap device as well as reducing the number of page faults pursued by traditional page replacement policies. This is because a write operation in PCM is slow and PCM has limited write endurances. Specifically, the proposed policy focuses on the reduction of page faults when the memory load of the system is high, but it aims at reducing write traffic to storage when free memory space is sufficient. Simulation experiments with various memory reference traces show that the proposed policy reduces write traffic to PCM without performance degradations.

A Non-fixed Log Area Management Technique in Block for Flash Memory DBMS (플래시메모리 DBMS를 위한 블록의 비고정적 로그 영역 관리 기법)

  • Cho, Bye-Won;Han, Yong-Koo;Lee, Young-Koo
    • Journal of KIISE:Databases
    • /
    • v.37 no.5
    • /
    • pp.238-249
    • /
    • 2010
  • Flash memory has been studied as a storage medium in order to improve the performance of the system using its high computing speed in the DBMS field where frequent data access is needed. The most difficulty using the flash memory is the performance degradation and the life span shortening of flash memory coming from inefficient in-place update. Log based approaches have been studied to solve inefficient in-place update problem in the DBMS where write operations occur in smaller size of data than page frequently. However the existing log based approaches suffer from the frequent merging operations, which are the principal cause of performance deterioration. Thus is because their fixed log area management can not guarantee a sufficient space for logs. In this paper, we propose non-fixed log area management technique that can minimize the occurrence of the merging operations by promising an enough space for logs. We also suggest the cost calculation model of the optimal log sector number minimizing the system operation cost in a block. In experiment, we show that our non-fixed log area management technique can have the improved performance compared to existing approaches.

An Analysis of the Performance of Collective I/Os and the Subgroup Method (집합 I/O와 부분군 기법의 성능 분석)

  • Cha, Kwangho;Cho, Hyeyoung;Kim, Sungho
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2007.11a
    • /
    • pp.513-516
    • /
    • 2007
  • Because many scientific applications require large data processing, the importance of parallel I/O has been increasingly recognized. Collective I/O is one of the considerable features of parallel I/O and enables application programmers to easily handle their large data volume. In this paper we measure and analyze the performance of original collective I/Os and the subgroup method, the way of using collective I/O of MPI effectively. From the experimental results, we found that the two kinds of subgroup method showed different performance. In terms of collective write operation, the subgroup method caused the performance degradation. However, the subgroup method for collective read showed good performance with small data size.

  • PDF

Buffer Cache Management of Smartphones Exploiting Write-Only-Once Characteristics (1회성 쓰기 참조 특성을 고려하는 스마트폰 버퍼캐쉬 관리 기법)

  • Kim, Dohee;Bahn, Hyokyung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.15 no.6
    • /
    • pp.129-134
    • /
    • 2015
  • This paper analyzes file access characteristics of smartphone apps and finds that a large portion of file writes are performed only once. Based on this observation, we present a new buffer cache management scheme that considers this characteristics. Buffer cache improves storage performance by maintaining hot file data in memory thereby servicing subsequent requests without storage accesses. However, it should flush modified data to storage in order to resist system crashes. The proposed scheme evicts cache data that has been written only once upon flushes, thus improving cache space utilization. Simulation experiments show that the proposed scheme improves cache hit ratio by 5-33% and power consumption by 27-92%.