• 제목/요약/키워드: prefix cache

검색결과 17건 처리시간 0.65초

Bitmap-based Prefix Caching for Fast IP Lookup

  • Kim, Jinsoo;Ko, Myeong-Cheol;Nam, Junghyun;Kim, Junghwan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권3호
    • /
    • pp.873-889
    • /
    • 2014
  • IP address lookup is very crucial in performance of routers. Several works have been done on prefix caching to enhance the performance of IP address lookup. Since a prefix represents a range of IP addresses, a prefix cache shows better performance than an IP address cache. However, not every prefix is cacheable in itself. In a prefix cache it causes false hit to cache a non-leaf prefix because there is possibly the longer matching prefix in the routing table. Prefix expansion techniques such as complete prefix tree expansion (CPTE) make it possible to cache the non-leaf prefixes as the expanded forms, but it is hard to manage the expanded prefixes. The expanded prefixes sometimes incur a great deal of update overhead in a routing table. We propose a bitmap-based prefix cache (BMCache) to provide low update overhead as well as low cache miss ratio. The proposed scheme does not have any expanded prefixes in the routing table, but it can expand a non-leaf prefix using a bitmap on caching time. The trace-driven simulation shows that BMCache has very low miss ratio in spite of its low update overhead compared to other schemes.

A Hybrid Prefix Cashing Scheme for Efficient IP Address Lookup

  • Kim, Jinsoo;Kim, Junghwan
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권12호
    • /
    • pp.45-52
    • /
    • 2015
  • We propose a hybrid prefix caching scheme to enable high speed IP address lookup. All prefixes loaded in a prefix cache should not be overlapped in address range for correct IP lookup. So, every non-leaf prefix needs to be expanded not so as to be overlapped. The shorter expanded prefix is more preferable because it can cover wider address range just as an single entry in a prefix cache. We exploits advantages of two dynamic prefix expansion techniques, bounded prefix expansion technique and bitmap-based prefix expansion technique. The proposed scheme uses dual bound values whereas just one bound value is used in bounded prefix expansion. Our elaborated technique make the dual bound values be associated with several subtries flexibly using bitmap information, rather than with fixed subtries. We evaluate the performance of the proposed scheme in terms of the average length of the expanded prefixes and cache miss ratio. The experiment results show the proposed scheme has lower cache miss ratio than other previous schemes including both bounded prefix expansion and bitmap-based expansion irrespective of the cache size.

엣지-포그 캐싱 환경에서 재생 지연 감소를 위한 Prefix 캐싱 기법 (Prefix Caching for Playback Delay Reduction in Edge-Fog Caching Environment)

  • 정준호;성은산;이현섭;윤주상
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.97-99
    • /
    • 2021
  • 엣지 캐싱은 동영상 스트리밍 서비스에서 backhaul 네트워크의 트래픽을 감소시키고 응답 지연을 줄여 높은 QoE를 제공할 수 있다. 그러나 엣지 캐시의 용량은 제한적이기 때문에 많은 양의 컨텐츠를 캐싱할 수 없다. 본 논문에서는 동영상 콘텐츠의 prefix를 엣지에 캐싱하고 나머지 부분을 포그 캐시에 저장하여 재생 지연을 감소시키는 edge-fog prefix caching 기법을 제안한다.

  • PDF

부분키를 사용한 캐쉬 인식 B+ 트리의 성능 평가 (Performance Evaluation of Cache Sensitive B+-tree)

  • 김원식;한욱신
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.448-452
    • /
    • 2004
  • 부분키를 사용한 캐쉬 인식 $B^+$ 트리는 키 압축과 포인터 압축 방법을 동시에 적용한 캐쉬 인식 트리이다. 기존의 캐쉬 인식 트리들은 키 압축과 포인터 압축을 따로 고려하였다. 이에 반해 부분키를 사용한 캐쉬 인식 $B^+$ 트리는 키와 포인터를 동시에 압축하여 캐쉬 활용도를 높였다. 본 논문은 기 발표된 부분키를 사용한 캐쉬 인식 $B^+$ 트리의 벌크로드와 검색 알고리즘을 구현하여 성능 평가를 수행하였다. 그리고 $B^+$-트리와 Simple Prefix $B^+$-트리의 성능비교를 통하여 부분키 캐쉬 인식 $B^+$ 트리의 성능의 우수함을 확인 하였다.

  • PDF

무선 모바일 프록시 시스템에서 유사도 기반의 캐싱 손실 최소화 (Similarity-based Caching Replacement Loss Minimization in Wireless Mobile Proxy Systems)

  • 이종득
    • 한국항행학회논문지
    • /
    • 제16권3호
    • /
    • pp.455-462
    • /
    • 2012
  • 무선 모바일 프록시 캐싱 구조에서 캐싱 교체로 인한 손실은 스트리밍 QoS에 중요한 영향을 미친다. 본 논문에서는 캐싱 교체 과정에서 발생하는 손실을 최소화하기 위하여 유사도 기반의 캐싱 손실 최소화 기법 SCLM(Similarity-based Caching Loss Minimization)을 제안한다. 제안된 기법은 객체 세그먼트를 분할 한 후 유사도 관계를 수행한다. 유사도 관계가 수행된 세그먼트들은 SRT (Similarity Relation Tree)가 생성되고 유사도가 측정된다. 유사도는 적합성 피드백을 결정하는 중요한 척도로서 적합성을 만족한 세그먼트들은 캐싱 교체를 위해 캐시 블록에 저장한다. 시뮬레이션 결과 제안된 기법은 prefix 캐싱 기법, segment 캐싱 기법, 그리고 bps 캐싱 기법에 비해서 캐싱 시작 지연 제어율, 캐시 처리율, 그리고 캐시 응답율의 QoS가 효율적임을 보인다.

IP 주소 검색을 위한 가중 이진 프리픽스 트리 (Weighted Binary Prefix Tree for IP Address Lookup)

  • 임창훈;임혜숙;이보미
    • 한국통신학회논문지
    • /
    • 제29권11B
    • /
    • pp.911-919
    • /
    • 2004
  • IP 주소 검색은 인터넷 라우터의 필수적인 기능의 하나로서, 라우터 전체의 성능을 결정하는 중요한 요소이다. 소프트웨어에 기반한 IP 주소 검색 방식의 성능 평가 기준 중 가장 중요한 것은 라우터의 처리 속도를 보장해 주는 의미를 갖는 최대 메모리 접근 횟수이다. 이진 프리픽스 트리 방식(BPT)은 최대 메모리 접근 횟수에 있어서 기존의 다른 소프트웨어에 기반한 방식 중 우수한 방식이지만, 트리의 구조가 불균형적이 되는 단점이 있다. 본 논문에서는 기존의 BPT 방식의 트리 생성 과정에 가중치 개념을 추가하여, 완전 균형 트리에 매우 근접하는 트리를 생성하는 가중 이진 프리픽스 트리 (WBPT) 방식을 제안한다. 제안하는 WBPT 방식은 기존의 소프트웨어에 근거한 방식들에 비교하여 최대 메모리 접근 횟수에 있어서 가장 적은 성능을 보인다. 또한 3만 개 정도의 프리픽스에 대해서 L2 캐쉬에 저장이 가능한 정도의 작은 메모리 크기를 요구하구 프리픽스의 추가, 삭제가 용이하므로 실제적인 라우터의 IP 검색을 위하여 사용될 수 있는 방식이다.

압축 지역성 수준에 기반한 캐쉬 인식 압축 색인 (A Cache-Conscious Compression Index Based on the Level of Compression Locality)

  • 김원식;유재준;이진수;한욱신
    • 한국멀티미디어학회논문지
    • /
    • 제13권7호
    • /
    • pp.1023-1043
    • /
    • 2010
  • 최근 메인 메모리의 용량 증가와 가격하락으로 데이터베이스 시스템에서 사용하고 있는 색인 전체를 메인 메모리상에 상주시키는 것이 가능해지고 있다. 그러나 CPU와 메인 메모리의 연산속도와 메인 메모리의 접근 속도의 차이는 해마다 커지고 있다. 이러한 접근 속도 차이로 생기는 문제를 해결하기 위한 많은 연구가 진행 중에 있다. 이러한 연구 중 캐시 인식 트리는 데이터 압축을 통해서 캐시 미스를 줄이고, 메인 메모리의 접근 비용을 감소시킬 수 있다. 기존의 캐시 인식 트리는 데이터의 특성과 관계없이 오직 한 가지 방법의 압축방법을 사용하는 한계가 있다. 본 논문에서는 이러한 한계를 극복 할 수 있는 방법을 제안한다. 첫 번째로, 데이터의 특성을 설명 할 수 있는 압축 지역성의 개념을 제안한다. 두 번째로, 데이터의 특성에 따라 최대한 캐시 미스를 줄일 수 있도록 여러 가지 압축 방법을 지원하는 DC-Tree를 제안한다. 캐시 미스 수 측면에서 DC-Tree는 B+-Tree, Simple prefix DC-Tree, pkB-Tree에 비해 각각 1.7배, 1.5배, 1.3배의 성능 향상을 보였다. 본 논문에서 제안한 DC-Tree는 사업 데이터베이스 시스템에 적용 할 수 있을 것으로 예상되며, 실제 응용에서도 성능 향상을 보일 수 있을 것이다.

비트-맵 기반의 혼합형 고속 IP 검색 기법 (Bit-Map Based Hybrid Fast IP Lookup Technique)

  • 오승현
    • 한국멀티미디어학회논문지
    • /
    • 제9권2호
    • /
    • pp.244-254
    • /
    • 2006
  • 본 논문은 고속 IP 검색을 위해 거대한 포워딩 테이블을 인덱싱하는 트라이(trie)를 캐시에 저장할 수 있는 작은 크기로 압축하는 복합적 기법을 제안한다. 본 논문의 복합적 기법은 bit-map과 controlled-prefix 기법을 복합한 것으로 저속의 주 메모리 검색을 약간의 계산을 포함한 고속 메모리 검색으로 대체한다. bit-map 트라이 압축 기법은 트라이의 인덱스와 자식 포인터를 각각 하나의 비트로 표시한다. 예를 들면 한 노드가 n bit 대표할 때 bit-map은 노드에서 연결된 $2^n$개의 인덱스와 자식 링크를 $2^{n-1}$ bit로 표시함으로써 높은 메모리 압축효과를 제공한다. controlled-prefix 기법은 주어진 트라이 계층 개수에 대해 각 계층의 깊이(stride) 즉, 트라이의 각 계층의 최상위 노드가 대표할 비트의 개수를 결정한다. 이때 controlled-prefix 기법은 주어진 트라이 계층 개수에 대해 최소의 트라이 크기를 구하기 위해 동적 프로그래밍(dynamic programming) 기법을 사용한다. 본 연구는 트라이 계층 개수에 따라 최적의 메모리 크기와 검색속도를 제시함으로써 시스템의 메모리 크기와 요구되는 검색속도에 맞추어 적절한 트라이 구조를 선택할 수 있는 기준을 제안한다.

  • PDF

P2Prefix : P2P 캐싱 기반의 효율적인 브로드캐스트 스트리밍 기법 (P2Prefix : Efficient Broadcasting Streaming Scheme Based on P2P Caching)

  • 이치훈;최영;최황규
    • 인터넷정보학회논문지
    • /
    • 제8권2호
    • /
    • pp.77-87
    • /
    • 2007
  • 일반적인 VOD시스템은 서버-클라이언트 구조로 되어 있다. 따라서 다수의 클라이언트의 요청이 있을 경우 서버에 부하가 집중되어 서버 시스템의 네트워크 대역폭의 한계로 인해 QoS가 보장된 VOD 서비스가 어렵다. 특히 다수의 클라이언트 요청으로 인한 네트워크 대역폭 요구량의 증가는 서버 시스템 자원 소모의 결정적인 요인이다. 이러한 문제점들을 해결하기 위한 방법으로 멀티캐스트, 브로드캐스트, P2P 등 많은 기법들이 연구되었다. 그중 브로드캐스트 기법은 추가적인 대역 폭의 할당 없이 다수의 사용자에게 스트림을 전송할 수 있으므로 효과적이다 하지만 브로드캐스트 기법은 초기 서비스 지연시간이 길다는 단점이 있다. 따라서 본 논문에서는 브로드캐스트 기법의 문제점인 초기 서비스 지연시간을 P2P 기반의 캐싱 기법을 적용하여 제거하고, 이때 필요한 버퍼 공간을 최소화 할 수 있는 P2Prefix 브로드캐스트 기법을 제안한다.

  • PDF

Binary Search on Multiple Small Trees for IP Address Lookup

  • 이보미;김원정;임혜숙
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 하계종합학술대회 논문집(1)
    • /
    • pp.175-178
    • /
    • 2004
  • This paper describes a new IP address lookup algorithm using a binary search on multiple balanced trees stored in one memory. The proposed scheme has 3 different tables; a range table, a main table, and multiple sub-tables. The range table includes $2^8$ entries of 22 bits wide. Each of the main table and sub-table entries is composed of fields for a prefix, a prefix length, the number of sub-table entries, a sub-table pointer, and a forwarding RAM pointer. Binary searches are performed in the main table and the multiple sub-tables in sequence. Address lookups in our proposed scheme are achieved by memory access times of 11 in average, 1 in minimum, and 24 in maximum using 267 Kbytes of memory for 38.000 prefixes. Hence the forwarding table of the proposed scheme is stored into L2 cache, and the address lookup algorithm is implemented in software running on general purpose processor. Since the proposed scheme only depends on the number of prefixes not the length of prefixes, it is easily scaled to IPv6.

  • PDF