• 제목/요약/키워드: Memory Buffer

검색결과 369건 처리시간 0.025초

다중접근을 허용하는 3차원 메모리 시스템 (A 3D Memory System Allowing Multi-Access)

  • 이형
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권9호
    • /
    • pp.457-464
    • /
    • 2005
  • 본 논문에서는 임의의 좌표를 기준으로 17가지 접근방식을 지원하는 3차원 메모리 시스템을 제안한다. 제안하는 메모리 시스템은 메모리 모듈 할당 함수와 주소 할당 함수를 토대로 선 접근방식 13가지, 사각형 접근방식 3가지, 육면체 접근방식 1가지 등 모두 17가지 접근방식을 제공한다. 즉, 임의의 좌표에서 임의의 간격을 갖고 17가지 접근방식 중 어떠한 접근방식 내에서도 다수개의 데이타에 동시접근하는 기능을 제공한다. 이를 위해 제안하는 메모리 시스템은 메모리 모듈 선택 회로, 읽기/쓰기를 위한 데이타 라우팅 회로, 주소 계산 및 라우팅 회로들로 구성된다. 본 논문에서 제안하는 메모리 시스템은 응용 프로그램에 따라 쉽게 확장될 수 있으며, 메모리 시스템에 저장된 데이타를 개발자와 프로그래머가 논리적인 3차원 배열로 간주하여 처리할 수 있도록 데이타의 하드웨어 독립성을 지원한다 또한 제안한 메모리 시스템은 다양한 접근방식 내의 다수개의 데이타에 동시접근 할 수 있기 때문에 볼륨 렌더링이나 볼륨 클리핑 등과 같은 다양한 3차원 응용 분야 및 다중해상도를 지원하는 프레임 버퍼를 위한 시스템 구조의 메모리 시스템으로써 적합하다.

Buffer Policy based on High-capacity Hybrid Memories for Latency Reduction of Read/Write Operations in High-performance SSD Systems

  • Kim, Sungho;Hwang, Sang-Ho;Lee, Myungsub;Kwak, Jong Wook;Park, Chang-Hyeon
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권7호
    • /
    • pp.1-8
    • /
    • 2019
  • Recently, an SSD with hybrid buffer memories is actively researching to reduce the overall latency in server computing systems. However, existing hybrid buffer policies caused many swapping operations in pages because it did not consider the overall latency such as read/write operations of flash chips in the SSD. This paper proposes the clock with hybrid buffer memories (CLOCK-HBM) for a new hybrid buffer policy in the SSD with server computing systems. The CLOCK-HBM constructs new policies based on unique characteristics in both DRAM buffer and NVMs buffer for reducing the number of swapping operations in the SSD. In experimental results, the CLOCK-HBM reduced the number of swapping operations in the SSD by 43.5% on average, compared with LRU, CLOCK, and CLOCK-DNV.

4Ghz 고성능 CPU 위한 캐시 메모리 시스템 (Cache memory system for high performance CPU with 4GHz)

  • 정보성;이정훈
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권2호
    • /
    • pp.1-8
    • /
    • 2013
  • 본 논문에서는 4Ghz의 빠른 클럭 속도의 CPU에 적합한 고성능 L1 캐시 메모리 구조를 제안한다. 제안된 캐시 메모리는 빠른 접근 시간을 위한 직접사상 캐시와 시간적 지역성을 고려한 2-way 연관사상 버퍼 그리고 버퍼 선택 테이블로 구성된다. 빠른 접근 시간을 보장하는 직접사상 캐시는 가장 최근 접근한 데이터를 저장하게 된다. 만약에 직접사상 캐쉬로부터 추출되는 데이터가 다시 참조되어질 높은 확률을 가지는 데이터이면 그 데이터들은 2-웨이 연관사상 버퍼로 선택적으로 저장되어 진다. 그리고 고성능과 저전력의 효과를 높이기 위하여 2-웨이 연관사상 버퍼중 하나의 웨이만 선택적으로 먼저 접근되어지며, 이러한 동작은 버퍼 선택 테이블에 의해 선택된다. 시뮬레이션 결과에 따르면, 에너지 소비와 평균 메모리 접근 시간을 고려한 에너지$^*$지연시간에서 두배 이상의 크기를 가지는 직접사상 캐시, 4-웨이 연관사상 캐시 그리고 희생 캐시에 비해 각각 45%, 70% 그리고 75%의 성능향상을 이루었다.

HDD와 SSD의 혼합형 저장 시스템을 위한 절전형 버퍼 캐쉬 관리 (Low-power Buffer Cache Management for Mixed HDD and SSD Storage Systems)

  • 강효정;박준석;고건;반효경
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권4호
    • /
    • pp.462-466
    • /
    • 2010
  • 본 논문은 하드디스크와 NAND 플래시메모리를 동시에 사용하는 저장 시스템 환경에서 전력 소모를 최소화하는 버퍼 캐쉬 관리 기법을 제안한다. 저장장치별 전력 소모율과 입출력 연산 종류(읽기 또는 쓰기) 및 블록의 재참조 가능성(최근성 및 빈도)을 통합적으로 고려하는 버퍼 캐쉬 관리 기법의 설계로 저장 시스템의 전력 소모량을 평균 18.0%, 최대 58.9%까지 줄일 수 있음을 보인다.

공유 데이터베이스 환경에서 고성능 트랜잭션 처리를 위한 버퍼 무효화 기법 (Buffer Invalidation Schemes for High Performance Transaction Processing in Shared Database Environment)

  • 김신희;배정미;강병욱
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제6권1호
    • /
    • pp.159-180
    • /
    • 1997
  • Database sharing system(DBSS) refers to a system for high performance transaction processing. In DBSS, the processing nodes are locally coupled via a high speed network and share a common database at the disk level. Each node has a local memory, a separate copy of operating system, and a DBMS. To reduce the number of disk accesses, the node caches database pages in its local memory buffer. However, since multiple nodes may be simultaneously cached a page, cache consistency must be ensured so that every node can always access the latest version of pages. In this paper, we propose efficient buffer invalidation schemes in DBSS, where the database is logically partitioned using primary copy authority to reduce locking overhead. The proposed schemes can improve performance by reducing the disk access overhead and the message overhead due to maintaining cache consistency. Furthermore, they can show good performance when database workloads are varied dynamically.

  • PDF

HIGH-SPEED SOFTWARE FRAME SYNCHRONIZER USING CIRCULAR BUFFER

  • Koo, In-Hoi;Ahn, Sang-II;Kim, Tae-Hoon;SaKong, Young-Bo
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2008년도 International Symposium on Remote Sensing
    • /
    • pp.228-231
    • /
    • 2008
  • For a satellite data communication, the technology of frame synchronization is widely used between a sender and a receiver. Last year, we suggested zero-loss frame synchronization [1] using pattern search and using bits threshold search algorithm that is based on SIMD technology [2,3]. This algorithm could solve both of hardware and software drawbacks, which are frame loss and low processing performance. However, this algorithm didn't optimize the processing of output data, synchronized data, which caused overhead to the memory allocation and the memory copy. Consequently, the performance of the frame synchronizer application was degraded. In this paper, we enhance previous work using a circular buffer in order to optimize the output data processing. The performance comparison with the previous algorithm shows that the enhanced proposed approach dramatically outperforms in the output data processing speed.

  • PDF

Non-FIFO 메모리 구조를 사용한 입력버퍼형 스위치에서 개선된 DBP 윈도우 기법 (An Improved DBP Window Policy in the Input Buffer Switch Using Non-FIFO Memory Structure)

  • 김훈;박성헌;박광채
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 학술발표대회 논문집 제17권 2호
    • /
    • pp.223-226
    • /
    • 1998
  • In the Input Buffer Switch using the intial stage FIFO memory structure, It has pointed the Throughput limitation to the percent of 58.6 due to HOL(Head of Line) blocking in the DBP(Dedicated Buffer with Pointer) method, During that time, To overcome these problems, The prior papers have proposed the complicated Arbitration algorithms and Non-FIFO memory structures. and These showed the improved Throughput. But, Now, To design high speed ATM Switch which need to the tens of Giga bit/s or the tens of Tera bit/s. It has more difficulty in proceeding the priority of majority and the complicated Cell Scheduling, because of the problem in operating the control speed of the ratio of N to scanning each port and scheduling the Cell. In this paper, To overcome these problems, We could show more the improved performance than the existing DBP Window policy to design high speed ATM Switch.

  • PDF

음성신호를 표본화할 동안 효율적인 실시간 저장기법 (An Effective Storage Method During A Sampling of Speech Signals)

  • 배명진;이인섭;안수길
    • 대한전자공학회논문지
    • /
    • 제24권3호
    • /
    • pp.394-399
    • /
    • 1987
  • It is necessary for the speech samples to be stored in memory buffer before speech analyzers without a real time processor process them. In this paper, we propose an algorithm that uses the buffer efficiently, when the analog speech signal is converted to the digital samples by the analog to digital converter. In order to implement this method in real time, the buffer is divided into the starting buffer and the remaining buffer. Until a voiced speech is found, the converted samples are sequentially stored in the starting buffer, and then the buffer is shifted. When a voiced speech is found, the next samples are sequentally recorded in the remaining buffer.

  • PDF

Designing a low-power L1 cache system using aggressive data of frequent reference patterns

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.9-16
    • /
    • 2022
  • 오늘날, 4차산업혁명의 도래와 함께 사물인터넷(Internet of Things (IoT)) 시스템이 빠르게 발전하고 있다. 이러한 이유로, 고성능 및 대용량의 다양한 애플리케이션이 등장하고 있다. 따라서, 이러한 애플리케이션을 가지는 컴퓨팅 시스템을 위한 저전력 및 고성능 메모리가 필요하다. 본 논문에서는 컴퓨팅 시스템에서 가장 많은 에너지 소비가 발생하는 L1 캐시 메모리에 대한 효과적인 구조를 제안하였다. 제안된 캐시 시스템은 크게 L1 메인 캐시와 버퍼캐시로 구성되어 진다. 메인 캐시는 2-뱅크 시스템으로, 각 뱅크는 2-웨이 연관사상으로 구성된다. L1캐시에서 접근 성공이 발생하면 제안된 알고리즘에 따라 데이터가 버퍼캐시에 복사가 된다. 시뮬레이션 결과에 따르면, 제안된 L1 캐시 시스템은 기존 4웨이 연관사상 캐시 메모리에 비해 에너지-지연에서 약65%의 성능향상을 보였다.

소용량 및 대용량의 ATM시스템에 적합한 스위칭 망의 구성 방안 (Construction Methods of Switching Network for a Small and a Large Capacity AMT Switching System)

  • 양충렬;김진태
    • 한국정보처리학회논문지
    • /
    • 제3권4호
    • /
    • pp.947-960
    • /
    • 1996
  • 우수한 성능의 ATM 스위칭 시스템 개발을 위한 주요 목표가 셀 손실, 셀지연 및 처리율의 저하를 최소화하는데 있으며, 이러한 목적에 가장 적합한 ATM스위치 소자가 램덤 액세스 메모리 및 제어 논리에 의해 수행되는 공유 버퍼 메모리 스위치(shared buffer memory switch)이다. 이 스위치는 입력 포트의 수가 증가할 수록 VLSI의 제조가 어렵기 때문에 최근의 소용량 및 대용량의 ATM 스위치는 8$\times$8,600 b/s 또는 16$\times$16,150 Mb/s의 단위 스위치를 사용하여 32$\times$32(4.9 Gb/s), 150Mb/s의 스위치를 구현하는 스위치 모듈 방법을 사용하고 있다. 본 논문에서는 단위 공유 버퍼 메모리 스위치의 버퍼 공유에가 위한 전체 메모리 감소 효과를 만족하는 버퍼 용량을 해석적 으로 평가하고, 트래픽 조건에 따른 셀 손실율을 컴퓨터 시뮬레이션한 결과를 제시 하며 또한, 스위치 모듈 방법을 이용하는 소용량 및 대용량 ATM 스위치 마의 특징을 분석,이 결과를 바탕으로 현재 각국에서 연구중인 32$\times$32, 150Mb/s의 스위치 구조를 제시하며, 궁극적으로 위 주요 목표들을 만족하는 소용량 및 대용량의 ATM 스위칭 시 스템을 위한 고속 스위칭 망 구조를 제시한다.

  • PDF