• 제목/요약/키워드: Network cache

검색결과 273건 처리시간 0.026초

Wireless Ad-hoc Network에서 보안 협력 캐싱 기법에 관한 연구 (A Study on Secure Cooperative Caching Technique in Wireless Ad-hoc Network)

  • 양환석
    • 디지털산업정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.91-98
    • /
    • 2013
  • Node which plays the role of cache server does not exist in the wireless ad-hoc network consisting of only mobile nodes. Even if it exists, it is difficult to provide cache services due to the movement of nodes. Therefore, the cooperative cache technique is necessary in order to improve the efficiency of information access by reducing data access time and use of bandwidth in the wireless ad-hoc network. In this paper, the whole network is divided into zones which don't overlap and master node of each zone is elected. General node of each zone has ZICT and manages cache data to cooperative cache and gateway node use NZCT to manage cache information of neighbor zone. We proposed security structure which can accomplish send and receive in the only node issued id key in the elected master node in order to prepare for cache consistent attack which is vulnerability of distributed caching techniques. The performance of the proposed method in this paper could confirm the excellent performance through comparative experiments of GCC and GC techniques.

고성능 PC 클러스터 링을 위한 SCI 기반 Network Cache Coherent NUMA 시스템의 설계 및 구현 (Design and Implementation of an SCI-Based Network Cache Coherent NUMA System for High-Performance PC Clustering)

  • 오수철;정상화
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권12호
    • /
    • pp.716-725
    • /
    • 2004
  • 고성능 PC 클러스터 시스템을 구축하기 위해서는 네트워크 접근 시간을 최소화하는 것이 중요하다. SCI 기반 PC 클러스터 시스템에서는 각 노드에 네트워크 캐쉬를 유지함으로써 네트워크 접근 시간을 줄이는 것이 가능하다. 본 논문에서는 공유 메모리를 PCI 버스상에 위치시킴으로써 네트워크 캐쉬지원을 가능하게 하였으며, 이에 기반한 Network Cache Coherenet NUMA(NCC-NUMA) 시스템을 제안하고, 핵심 모듈인 NCC-NUMA 카드를 개발하였다. NCC-NUMA 카드는 각 노드의 PCI 슬롯(slot)에 plug-in되는 형태이며, 공유메모리, 네트워크 캐쉬, 공유메모리 제어 모듈 및 네트워크 제어 모듈을 포함한다. 공유메모리와 네트워크 캐쉬 사이의 일관성은 IEEE SCI 표준에 의해 유지된다. NCC-NUMA 시스템의 성능 측정을 위해 SPLASH-2 벤치마크를 수행하였으며, NCC-NUMA 시스템이 네트워크 캐쉬를 활용하지 않는 NUMA 기반 클러스터 시스템에 비해서 최대 56%의 성능향상을 보임을 알 수 있었다.

A cache placement algorithm based on comprehensive utility in big data multi-access edge computing

  • Liu, Yanpei;Huang, Wei;Han, Li;Wang, Liping
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권11호
    • /
    • pp.3892-3912
    • /
    • 2021
  • The recent rapid growth of mobile network traffic places multi-access edge computing in an important position to reduce network load and improve network capacity and service quality. Contrasting with traditional mobile cloud computing, multi-access edge computing includes a base station cooperative cache layer and user cooperative cache layer. Selecting the most appropriate cache content according to actual needs and determining the most appropriate location to optimize the cache performance have emerged as serious issues in multi-access edge computing that must be solved urgently. For this reason, a cache placement algorithm based on comprehensive utility in big data multi-access edge computing (CPBCU) is proposed in this work. Firstly, the cache value generated by cache placement is calculated using the cache capacity, data popularity, and node replacement rate. Secondly, the cache placement problem is then modeled according to the cache value, data object acquisition, and replacement cost. The cache placement model is then transformed into a combinatorial optimization problem and the cache objects are placed on the appropriate data nodes using tabu search algorithm. Finally, to verify the feasibility and effectiveness of the algorithm, a multi-access edge computing experimental environment is built. Experimental results show that CPBCU provides a significant improvement in cache service rate, data response time, and replacement number compared with other cache placement algorithms.

WWW Cache Replacement Algorithm Based on the Network-distance

  • Kamizato, Masaru;Nagata, Tomokazu;Taniguchi, Yuji;Tamaki, Shiro
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -1
    • /
    • pp.238-241
    • /
    • 2002
  • With the popularity of utilization of the Internet among people, the amount of data in the network rapidly increased. So that, the fall of response time from WWW server, which is caused by the network traffic and the burden on m server, has become more of an issue. This problem is encouraged the rearch by redundancy of requesting the same pages by many people, even though they browse the same the ones. To reduce these redundancy, WWW cache server is used commonly in order to store m page data and reuse them. However, the technical uses of WWW cache that different from CPU and Disk cache, is known for its difficulty of improving the cache hit rate. Consecuently, it is difficult to choose effective WWW data to be stored from all data flowing through the WWW cache server. On the other hand, there are room for improvement in commonly used cache replacement algorithms by WWW cache server. In our study, we try to realize a WWW cache server that stresses on the improvement of the stresses of response time. To this end, we propose the new cache replacement algorithm by focusing on the utilizable information of network distance from the WWW cache server to WWW server that possessing the page data of the user requesting.

  • PDF

An ICN In-Network Caching Policy for Butterfly Network in DCN

  • Jeon, Hongseok;Lee, Byungjoon;Song, Hoyoung;Kang, Moonsoo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권7호
    • /
    • pp.1610-1623
    • /
    • 2013
  • In-network caching is a key component of information-centric networking (ICN) for reducing content download time, network traffic, and server workload. Data center network (DCN) is an ideal candidate for applying the ICN design principles. In this paper, we have evaluated the effectiveness of caching placement and replacement in DCN with butterfly-topology. We also suggest a new cache placement policy based on the number of routing nodes (i.e., hop counts) through which travels the content. With a probability inversely proportional to the hop counts, the caching placement policy makes each routing node to cache content chunks. Simulation results lead us to conclude (i) cache placement policy is more effective for cache performance than cache replacement, (ii) the suggested cache placement policy has better caching performance for butterfly-type DCNs than the traditional caching placement policies such as ALWASYS and FIX(P), and (iii) high cache hit ratio does not always imply low average hop counts.

네트워크 경로에 기초한 웹 캐쉬 알고리즘 (A Network-path based Web Cache Algorithm)

  • 민경훈;장혁수
    • 한국정보처리학회논문지
    • /
    • 제7권7호
    • /
    • pp.2161-2168
    • /
    • 2000
  • Since most of the existing web cache structures are static, they cannot support the dynamic request change of he current WWW users well. Users re generally using multiple programs in several different windows with rapid preference change within a relatively short period of time. We develop a network-path based algorithm. It organizes a cache according to the network path of the requested URLs and build a network cache farm where caches are logically connected with each other and each cache has its own preference over certain network paths. The algorithm has been implemented and tested in a real site. The performance results show that the new algorithm outperforms the existing static algorithms in the hit ratio and response time dramatically.

  • PDF

동적 이기종 캐시 서버 네트워크에서의 내결함성 캐싱 시스템 설계 및 구현 (Design and Implementation of a Fault-Tolerant Caching System for Dynamic Heterogeneous Cache Server Networks)

  • 김현기;함규식;김진우;장수영;최창범
    • 전기전자학회논문지
    • /
    • 제28권3호
    • /
    • pp.458-464
    • /
    • 2024
  • 본 연구는 이기종 캐시 서버 네트워크에서 캐시 서버의 동적 이탈과 참여로 인한 캐싱 콘텐츠 불균형 문제를 해결하기 위해 내결함성 캐싱 시스템을 제안하고, 이를 실제 및 가상 환경에서 검증하였다. 다양한 유형과 해상도가 요구되는 대용량 미디어 콘텐츠의 증가로 인해, 캐시 서버는 사용자 요청에 대한 응답 시간을 단축하고 네트워크 부하를 줄이는 핵심 요소로서 필요성이 증대되고 있다. 특히, 최근 엣지 컴퓨팅 및 저전력 장치를 활용한 이기종 캐시 서버 네트워크에 관한 연구가 활발히 진행되고 있다. 그러나 이러한 환경에서는 캐시 서버의 불규칙한 이탈과 참여가 빈번하게 발생할 수 있으며, 이로 인해 캐시 서버 네트워크에 배포되어 있는 콘텐츠 간 불균형이 발생하여 캐시 서버 네트워크의 성능을 저하키실 수 있다. 본 연구에서 제안한 내결함성 캐싱 알고리즘은 캐시 서버 이탈시에도 미디어 콘텐츠 간 균형을 유지함으로써 안정적인 서비스 품질을 보장한다. 실험 결과, 제안된 알고리즘은 캐시 서버의 이탈에도 불구하고 콘텐츠 분포를 효과적으로 유지함을 확인하였다. 또한, 실제 7대의 이기종 캐시 서버로 구성된 네트워크를 구축하여 제안 캐싱 시스템의 실용성을 검증하였고, 가상 환경에서 대규모 캐시 서버 네트워크를 통해 시스템의 성능 및 확장성을 입증하였다.

SCI 기반 PC 클러스터링을 위한 CC-NUMA 프로토타입 카드의 설계와 성능 (Design and Performance of a CC-NUMA Prototype Card for SCI-Based PC Clustering)

  • 오수철;정상화
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권1호
    • /
    • pp.35-41
    • /
    • 2002
  • 고성능 PC 클러스터 시스템을 구축하기 위해서는 네트워크 접근시간을 최소화하는 것이 중 요하다. SCI 기반 PC 클러스터 시스템에서는 각 노드에 네트워크 캐쉬를 유지함으로써 네트워크 접근 시 간을 줄이는 것이 가능하다. 본 논문에서는 SCI 기반 PC 클러스터 시스템을 위해서 네트워크 캐쉬를 활용하는 CC-NUMA 카드를 제안한다. CC-NUMA 카드는 각 노드의 PCI 슬롯(slot)에 plug-in 되는 형태이며 공유메모리 네트워크 캐쉬 네트워크 제어 모듈을 포함한다. 네트워크 캐쉬는 클러스터 노드의 PCI 버스상에서 존재하는 공유메모리를 캐쉬하여 공유메모리와 네트워크 캐쉬 사이의 일관성은 IEEC SCI 표준 에 의해 유지된다. 본 연구에서는 SCI 기반 PC 클러스터 시스템의 성능을 측정하기 위하여 CC-NUMA 프로토타입 카드를 개발하였으며, 이를 기반으로 하여 클러스터 시스템을 구축하였다. 실험결과. CC- NUMA 카드를 장착한 클러스터 시스템이 네트워크 캐쉬를 활용하지 않는 NUMA 기반 클러스터 시스템 에 비해서 우수한 성능을 보임을 알 수 있었다.

WAN(Wide Area Network)상에서 Proxy Cache를 이용한 연속미디어 전송 기법 (Continuous Media Delivery Scheme using Proxy Cache over WAN(Wide Area Network))

  • 최태욱;박성호;김영주;정기동
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.379-381
    • /
    • 2000
  • 인터넷과 같은 WAN환경에서 멀티미디어 전송품질을 향상시키기 위해서 Proxy Cache가 많이 이용되고 있으며, 이에 기반하여 클라이언트에게 실시간으로 연속미디어를 서비스하기 위한 여러 가지 전송기법들이 요구되어지고 있다. 본 논문에서는 Proxy Cache안에 일정양의 메모리를 Relay Buffer로 할당하고 이를 이용한 흐름제어기법을 구현하며, RTSP서버의 전송스케쥴러의 idle time을 이용하는 재전송기법을 제안하고 구현한다. 실험 결과, 제안된 기법은 WAN상에서의 RTSP서버와 Proxy Cache사이 패킷손실량 현저하게 줄일 수 있음을 확인하였다.

  • PDF

그리드 데이터베이스에서 질의 전달 최적화를 위한 캐쉬 관리 기법 (Cache Management Method for Query Forwarding Optimization in the Grid Database)

  • 신숭선;장용일;이순조;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제10권1호
    • /
    • pp.13-25
    • /
    • 2007
  • 그리드 데이터베이스에서는 질의 전달 최적화를 위해 캐쉬를 사용한다. 캐쉬에 빈번히 사용되는 데이터의 메타 정보를 메타 데이터베이스에서 가져와 캐싱하며, 캐싱된 정보를 통하여 질의 전달의 비용을 감소시킨다. 기존의 캐쉬 관리 기법은 질의 전달 시 복제본의 사용빈도를 고려하지 않은 데이터의 임의의 메타 정보를 캐싱하기 때문에 사용이 불균형적인 문제가 있다. 그리고, 원본 데이터가 변경되었을 경우에 기존의 메타정보를 가진 캐쉬를 통하여 질의가 타 노드로 잘못 전달되며 이러한 과정은 여러 노드에서 반복 수행되어 네트워크 비용을 증가시킨다. 따라서 기존의 캐쉬 관리 기법은 복제본의 사용비율 불균형과 타 노드로의 잘못된 질의 전달로 인한 네트워크 비용 증가 문제의 해결이 필요하다. 본 논문에서는 질의 전달 최적화를 위한 캐쉬 관리 기법을 제안한다. 제안 기법은 캐쉬 매니저라는 관리 프로세서를 사용하여 캐쉬를 관리한다. 캐쉬 매니저는 자주 사용되는 복제본이 저장된 노드의 사용빈도를 비교하여 적게 사용된 노드의 복제본 메타 정보를 캐싱함으로써 질의 전달을 최적화한다. 또한 캐쉬 매니저를 통해 타 노드로 잘못 전달되는 질의를 줄여 질의 처리 시간을 단축하고 네트워크 비용을 줄인다. 제안 기법은 성능평가를 통해 네트워크 비용과 처리시간이 감소되어 기존의 방식에 비하여 향상된 성능을 보인다.

  • PDF