• 제목/요약/키워드: Cache Resource

검색결과 42건 처리시간 0.02초

동적으로 할당된 구조체를 위한 압축된 필드 재배치 (Compact Field Remapping for Dynamically Allocated Structures)

  • 김정은;한환수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권10호
    • /
    • pp.1003-1012
    • /
    • 2005
  • 내장형 시스템과 범용 시스템의 가장 큰 차이는 유한한 전력인 배터리를 사용한다는 것과 대용량의 디스크를 사용하지 않고 메모리에 의존한다는 것이다. 특히 멀티미디어 데이타를 처리하는 응용프로그램이 늘어감에 따라 메모리 사용량이 기하급수적으로 증가하고 있어서 메모리가 성능과 에너지 소비의 병목지점으로 작용하게 되었다. 따라서 데이타 접근 비용을 줄이고자 하는 시도가 많이 이루어지고 있다. 대부분의 프로그램은 지역성을 갖는다. 지역성은 한번 참조된 데이타가 조만간 다시 참조된다는 시간적 지역성(temporal locality)과 근접한 곳에 할당된 데이타끼리 함께 참조된다는 공간적 지역성(spatial locality)으로 나눌 수 있다. 최근의 많은 임베디드시스템은 이 두 가지 지역성을 이용한 캐시 메모리를 사용함으로써 메모리 접근 시간을 대폭 줄이고 있다. 우리는 이 논문에서 낭비되는 메모리 공간을 줄이고, 캐시 실패율(cache miss rate)과 프로그램 수행시간을 줄일 수 있도록 구조체 형식의 데이타를 항목(field)별로 재배치시키는 알고리즘을 제안하고자 한다. 이 알고리즘은 동적으로 할당되는 구조체의 각 필드를 압축된 형태로 모아서 재배치함으로써, 실험에서 사용한 Olden 벤치마크의 Ll캐시 실패는 평균 $13.9\%$를, L2 캐시 실패는 평균 $15.9\%$를 이전 연구들보다 줄일 수 있었다. 수행시간 또한 이전의 방법보다 평균 $10.9\%$ 줄인 결과를 얻을 수 있었다.

가상화 환경을 위한 QEMU/KVM 기반의 인메모리 블록 캐시 모듈 구현 (QEMU/KVM Based In-Memory Block Cache Module for Virtualization Environment)

  • 김태훈;송광혁;노재춘;박성순
    • 정보과학회 논문지
    • /
    • 제44권10호
    • /
    • pp.1005-1018
    • /
    • 2017
  • 가상화는 클라우드 컴퓨팅의 핵심 기술로 물리적 서버에 다수의 가상머신을 운영하여 서버 자원에 대한 활용도를 극대화하고, 관리의 편리성과 보안성을 향상시키는 것을 목표로 한다. 그러나 가상화는 물리적인 자원을 공유하기 때문에 가상머신의 성능이 저하되는 문제점을 가지고 있다. 본 연구에서는 가상머신의 대수에 따라서 발생하는 입출력 부하를 검증하고, 성능 저하의 원인을 해결하기 위해 KVM 하이퍼바이저의 블록 처리 과정을 분석하였다. 또한, 가상화 환경의 입출력 문제점을 보완하기 위한 QBic(QEMU/K-VM Based In-Memory Cache)을 구현하였다. QBic은 하이퍼바이저의 블록 입출력 과정을 모니터링하여 사용빈도가 높은 데이터를 캐시에 저장한다. 이후 캐시를 통해 해당하는 데이터를 빠르게 접근할 수 있으며, 스토리지의 접근 횟수를 줄여 하드웨어의 부하를 낮출 수 있다. 마지막으로 성능 측정을 통해 그 결과를 기술한다.

Improvement of Handoff-state and QOS in Wireless Environment

  • Jeong, You-Sun;Choe, U-Gin
    • Journal of information and communication convergence engineering
    • /
    • 제8권1호
    • /
    • pp.1-5
    • /
    • 2010
  • In this paper, we propose for improving QoS in wireless micro cellular network using Cellular-IP/PRC(Paging Route Cache) with Paging Cache and Route Cache in Cellular-IP and propose for performance of realtime and non-real time handoff service using Handoff state machine Paging Route Cache. Although the Cellular-IP/PRC technology is devised for mobile internet communication, it bas its vulnerability in frequent handoff environment. On the other hand, Cellular IP combines the capability of cellular networks to provide high performance handoff and efficient location management of active and idle mobile users with the inherent flexibility, robustness and scalability found in IP networks. Also Cellular-IP/PRC use semi-soft handoff. During semi-soft hand off a mobile host may be in contact with either of the old and new base stations and receive packets from them. Packets intended to the mobile node are sent to both base stations and buffered, so when the mobile host eventually moves to the new location it can continue to receive packets without interruption. It should be suitable for realtime service such as multimedia traffic. But, much waste of resource will occur in this method, especially for non-real time services such as FTP and E-mail. Therefore, a new algorithm that performs different handoff according to characteristic of each traffic by use of reserved field in IP packet is proposed in this thesis. This hand off state machine using differentiated handoff improves quality of services in Cellular-IP/PRC. Suggested algorithm shows better performance than existing technology in wireless mobile internet communication environment. Matlab simulation results are improving QoS, show call drop and call blocking provided to Paging Router Cache during handoff state machine in Cellular-IP/PRC.

SVLIW 프로세서와 VLIW 프로세서의 명령어 캐싱에 따른 성능 분석 (Performance Analysis of Caching Instructions on SVLIW Processor and VLIW Processor)

  • 지승현;박노광;김석일
    • 전기전자학회논문지
    • /
    • 제1권1호
    • /
    • pp.101-110
    • /
    • 1997
  • 실시간에 VLIW 명령어를 스케줄링하는 SVLIW 프로세서 구조는 실행 중 LNOP(긴 NOP 명령어)를 삽입하여 자원 충돌이나 자료 종속 문제를 스스로 해결할 수 있다. 따라서 SVLIW 프로세서에서는 메모리나 캐시에 적재되는 목적 코드로부터 LNOP 명령어를 제거할 수 있다. 그러므로 SVLIW 프로세서에서는 같은 크기의 캐시를 가진 VLIW 프로세서에 비하여 프로그램의 실행 도중에 발생하는 캐시 미스의 발생 빈도가 적어진다. 캐시 미스가 적게 발생하면 결국 평균 메모리 참조 시간이 짧아지므로 프로그램을 수행하는데 걸리는 실행 사이클의 수가 적어지게 된다. 이러한 특징은 한편 명령어 파이프라인 단계를 늘림으로 인한 영향을 상쇄할 수 있기 때문에 전체적으로 성능을 향상시킬 수 있다. 본 논문에서는 두 가지 프로세서 구조에서 어떤 응용 프로그램을 수행할 때 소요되는 실행 사이클을 예측하는 모델을 확립하고 이를 비교하였다. 또한, 시뮬레이션 결과로부터 캐시 미스가 발생하였을 때 메모리를 참조하는데 걸리는 시간이 길어질수록 SVLIW 프로세서에서의 실행 사이클이 VLIW 프로세서의 경우에 비하여 짧아지는 것을 확인할 수 있었다.

  • PDF

SBR-k(Sized-based replacement-k) : 데이터 그리드 환경에서 파일 교체 (SBR-k(Sized-base replacement-k) : File Replacement in Data Grid Environments)

  • 박홍진
    • 한국콘텐츠학회논문지
    • /
    • 제8권11호
    • /
    • pp.57-64
    • /
    • 2008
  • 데이터 그리드는 대용량의 데이터 어플리케이션 처리를 위해 지리적으로 분산되어 있는 저장 자원을 제공한다. 대용량을 처리해야 하는 데이터 그리드 환경에서는 기존 웹 캐싱 정책이나 가상 메모리 캐쉬 교체 정책과는 다른 파일 교체 정책이 필요하다. LRU(Least Recently Used)나 LCB-K(Least Cost Beneficial based on K), EBR(Economic-based cache replacement), LVCT(Least Value-based on Caching Time) 같은 기존의 파일 교체 전략은 파일 교체를 위해 추가적인 자원이 필요하거나 미래를 예측해야한다. 본 논문은 이를 해결하기 위해 파일의 크기에 기반하여 파일 교체를 수행하는 SBR-k(Sized-based replacement-k)을 제안한다. 제안된 정책은 불확실한 미래 예측의 부담을 줄이고, 요청된 파일에 대응되는 교체 파일의 개수가 적게 하이 위해 파일 크기를 고려하였다. 성능평가 결과 캐쉬 크기가 작은 경우에 적중률이 비슷하나 캐쉬 크기가 크면 본 논문에서 제시한 정책이 우수함을 보였다.

목적 코드에서 LNOP 코드가 제거됨에 따른 SVLIW 구조의 성능 향상 (Performance Improvement of SVLIW Architectures by Removing LNOPs from An Object Code)

  • 정보윤;전중남;김석일
    • 한국정보처리학회논문지
    • /
    • 제4권9호
    • /
    • pp.2269-2279
    • /
    • 1997
  • SVLIW (Superscalar VLIW) 프로세서는 실시간에 긴 명령어를 스케줄하는 VLIW 프로세서의 일종으로 인출되어 실행될 긴 명령어가 사용할 자원과 앞서 인출되어 수행중인 긴 명령어가 사용하는 자원간에 충돌이 발생하면 인출하여 실행하려는 긴 명령어를 수행하지 않고 NOP으로만으로 구성된 긴 명령어(LNOP: Long NOP word)를 할당하여 긴 명령어간의 충돌로 인한 계산의 오류를 피한다. 따라서 SVLIW 프로세서에서는 목적 코드 내에서 LNOP을 제거할 수 있다. 본 논문에서는 목적 코드에서 LNOP이 제거됨에 따라 캐쉬 적중률이 얼마나 향상되는지를 분석하고 이로 인하여 예상되는 성능 향상을 연구하였다. 여러 가지의 벤치 마크 프로그램에 대한 모의 실험 결과, SVLIW 프로세서 구조는 기존의 VLIW 프로세서 구조에 비하여 성능이 5%이상 향상됨이 확인될 수 있었다.

  • PDF

Communication Resource Allocation Strategy of Internet of Vehicles Based on MEC

  • Ma, Zhiqiang
    • Journal of Information Processing Systems
    • /
    • 제18권3호
    • /
    • pp.389-401
    • /
    • 2022
  • The business of Internet of Vehicles (IoV) is growing rapidly, and the large amount of data exchange has caused problems of large mobile network communication delay and large energy loss. A strategy for resource allocation of IoV communication based on mobile edge computing (MEC) is thus proposed. First, a model of the cloud-side collaborative cache and resource allocation system for the IoV is designed. Vehicles can offload tasks to MEC servers or neighboring vehicles for communication. Then, the communication model and the calculation model of IoV system are comprehensively analyzed. The optimization objective of minimizing delay and energy consumption is constructed. Finally, the on-board computing task is coded, and the optimization problem is transformed into a knapsack problem. The optimal resource allocation strategy is obtained through genetic algorithm. The simulation results based on the MATLAB platform show that: The proposed strategy offloads tasks to the MEC server or neighboring vehicles, making full use of system resources. In different situations, the energy consumption does not exceed 300 J and 180 J, with an average delay of 210 ms, effectively reducing system overhead and improving response speed.

불필요한 콜백을 제거한 회피 기반의 캐쉬 일관성 알고리즘 (An Avoidance-Based Cache Consistency Algorithm without Unnecessary Callback)

  • 김치연
    • 한국항행학회논문지
    • /
    • 제10권2호
    • /
    • pp.120-127
    • /
    • 2006
  • 클라이언트의 데이터 캐슁은 클라이언트에서 데이터가 캐쉬되고 운영되는 환경에서 서버와의 상호작용을 하기 위한 중요한 기술이다. 캐슁은 네트워크 지연을 감소시키고 클라이언트의 자원 활용을 증가시키는 방법이다. 이와 같은 클라이언트-서버 환경에서 클라이언트에서 수행되는 응용 프로그램의 정확성을 보장하기 위해서는 캐쉬 일관성 알고리즘이 필요하다. 이 논문에서는 새로운 비동기적 회피 기반의 캐쉬 일관성 알고리즘을 제안한다. 제안하는 방법에서는 잠금 모드를 단순하게 유지하고, AACC에서 잠금 상승으로 인하여 발생하는 불필요한 callback 메시지를 제거함으로써 AACC보다 적은 메시지 교환을 가짐을 보였다. 제안하는 알고리즘의 정확성을 증명하기 위해서는 1-사본 직렬성을 사용하였다.

  • PDF

데이터 그리드 환경에서 파일 교체 정책 연구 (A Study of File Replacement Policy in Data Grid Environments)

  • 박홍진
    • 정보처리학회논문지A
    • /
    • 제13A권6호
    • /
    • pp.511-516
    • /
    • 2006
  • 데이터 그리드는 대용량의 데이터 어플리케이션 처리를 위해 지리적으로 분산되어 있는 저장 자원을 제공한다. 대용량을 처리해야 하는 데이터 그리드 환경에서는 기존 웹 캐싱 정책이나 가상 메모리 캐쉬 교체 정책과는 다른 파일 교체 정책이 필요하다. LRU(Least Recently Used)나 LCB-K(Least Cost Beneficial based on K), EBR(Economic-based cache replacement), LVCT(Least Value-based on Caching Time) 같은 기존의 파일 교체 전략은 파일 교체를 위해 추가적인 자원이 필요하거나 미래를 예측해야한다. 본 논문은 이를 해결하기 위해 파일의 크기에 기반하여 파일 교체를 수행하는 SBR-k(Sized-based replacement-k)을 제안한다. 성능평가 결과 제안한 정책이 기존의 정책보다 더 나은 성능을 나타낸다는 것을 확인하였다.

ROLAP 환경에서 집단함수 질의처리를 위한 효율적인 알고리즘 (Efficient Algorithm for Query Processing of Aggregate functions in ROLAP Environment)

  • 김인식;김종겸;정순기
    • 한국컴퓨터정보학회논문지
    • /
    • 제8권3호
    • /
    • pp.40-46
    • /
    • 2003
  • 최근 하드웨어 기술의 발달로 다양하고 복잡한 기능들을 가지는 고성능 프로세서들이 일반화되어 사용되고 있다. 데이터베이스 시스템의 질의 처리 과정에서도 이러한 하드웨어적 특성들을 고려한 알고리즘들이 중요한 연구대상으로 부각되고 있다. 최근 연구 결과에 의하면 캐시 미스의 증가로 발생하는 미스 패널티가 메모리와 CPU간에 새로운 병목 현상이 되고 있으며, 분기 오 예측으로 인한 프로세서 자원 손실도 상당한 비중을 갖는다는 것을 보여준다. 본 논문에서는 이러한 하드웨어적 특성들을 효율적으로 사용할 수 있는 기법들에 대한 연구를 통해 질의처리 알고리즘 가운데 집단함수를 최적으로 구현할 수 있는 알고리즘을 제안하였다.

  • PDF