• 제목/요약/키워드: Cache Redundancy

검색결과 10건 처리시간 0.021초

WWW Cache Replacement Algorithm Based on the Network-distance

  • Kamizato, Masaru;Nagata, Tomokazu;Taniguchi, Yuji;Tamaki, Shiro
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -1
    • /
    • pp.238-241
    • /
    • 2002
  • With the popularity of utilization of the Internet among people, the amount of data in the network rapidly increased. So that, the fall of response time from WWW server, which is caused by the network traffic and the burden on m server, has become more of an issue. This problem is encouraged the rearch by redundancy of requesting the same pages by many people, even though they browse the same the ones. To reduce these redundancy, WWW cache server is used commonly in order to store m page data and reuse them. However, the technical uses of WWW cache that different from CPU and Disk cache, is known for its difficulty of improving the cache hit rate. Consecuently, it is difficult to choose effective WWW data to be stored from all data flowing through the WWW cache server. On the other hand, there are room for improvement in commonly used cache replacement algorithms by WWW cache server. In our study, we try to realize a WWW cache server that stresses on the improvement of the stresses of response time. To this end, we propose the new cache replacement algorithm by focusing on the utilizable information of network distance from the WWW cache server to WWW server that possessing the page data of the user requesting.

  • PDF

Effect of ASLR on Memory Duplicate Ratio in Cache-based Virtual Machine Live Migration

  • Piao, Guangyong;Oh, Youngsup;Sung, Baegjae;Park, Chanik
    • 대한임베디드공학회논문지
    • /
    • 제9권4호
    • /
    • pp.205-210
    • /
    • 2014
  • Cache based live migration method utilizes a cache, which is accessible to both side (remote and local), to reduce the virtual machine migration time, by transferring only irredundant data. However, address space layout randomization (ASLR) is proved to reduce the memory duplicate ratio between targeted migration memory and the migration cache. In this pager, we analyzed the behavior of ASLR to find out how it changes the physical memory contents of virtual machines. We found that among six virtual memory regions, only the modification to stack influences the page-level memory duplicate ratio. Experiments showed that: (1) the ASLR does not shift the heap region in sub-page level; (2) the stack reduces the duplicate page size among VMs which performed input replay around 40MB, when ASLR was enabled; (3) the size of memory pages, which can be reconstructed from the fresh booted up state, also reduces by about 60MB by ASLR. With those observations, when applying cache-based migration method, we can omit the stack region. While for other five regions, even a coarse page-level redundancy data detecting method can figure out most of the duplicate memory contents.

소프트웨어 정의 무선 메쉬 네트워크에서의 경량화된 중복 제거 기법 (LTRE: Lightweight Traffic Redundancy Elimination in Software-Defined Wireless Mesh Networks)

  • 박광우;김원태;김준우;백상헌
    • 정보과학회 논문지
    • /
    • 제44권9호
    • /
    • pp.976-985
    • /
    • 2017
  • 낮은 비용으로 무선 네트워킹 인프라를 구축할 수 있는 무선 메쉬 네트워크에서는 제한된 무선 자원을 효율적으로 이용하기 위해 패킷 전송(특히, 불필요하게 중복되는 패킷 전송)을 신중하게 처리해야 한다. 본 논문에서는 컨트롤러를 통한 중앙 집중식의 관리가 가능한 소프트웨어 정의 네트워킹 기반의 무선 메쉬 네트워크에서 불필요하게 중복 전송되는 데이터의 양을 감소시키기 위해 경량화된 중복 제거기법을 제안한다. 제안하는 중복 제거 기법은 감소되는 트래픽 양을 극대화하기 위해 컨트롤러가 1) 기계학습 기반의 정보 요청, 2) ID기반의 소스 라우팅, 3) 인기도 기반의 캐쉬 업데이트를 통해 중복 제거 효과를 극대화시킬 수 있는 최적의 경로를 결정한다. 시뮬레이션 결과는 제안하는 기법을 통해 전체 트래픽 부하를 18.34%-48.89% 만큼 감소시킬 수 있음을 보여준다.

High Performance Computing 환경을 위한 고성능, 무정지 파일시스템 구현 (The development of the high effective and stoppageless file system for high performance computing)

  • 박영배;최승환;이상호;김경수;공용준
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.395-401
    • /
    • 2004
  • In the current high network-centralized computing and enterprising environment, it is getting essential to transmit data reliably at very high rates. Until now previous client/server model based NFS(Network File System) or AFS(Andrew's Files System) have met the various demands but from now couldn't satisfy those of the today's scalable high-performance computing environment. Not only performance but data sharing service redundancy have risen as a serious problem. In case of NFS, the locking issue and cache cause file system to reboot and make problem when it is used simply as ip-take over for H/A service. In case of AFS, it provides file sharing redundancy but it is not possible until the storage supporting redundancy and equipments are prepared. Lustre is an open source based cluster file system developed to meet both demands. Lustre consists of three types of subsystems : MDS(Meta-Data Server) which offers the meta-data services, OST(Objec Storage Targets) which provide file I/O, and Lustre Clients which interact with OST and MDS. These subsystems with message exchanging and pursuing scalable high-performance file system service. In this paper, we compare the transmission speed of gigabytes file between Lustre and NFS on the basis of concurrent users and also present the high availability of the file system by removing more than one OST in operation.

  • PDF

File Cache 및 Direct Access기능을 추가한 Java Card File System에 관한 연구 (A Study of Java Card File System with File Cache and Direct Access function)

  • 이윤석;전하용;정민수
    • 한국멀티미디어학회논문지
    • /
    • 제11권3호
    • /
    • pp.404-413
    • /
    • 2008
  • 유비쿼터스 사회화에 따른 개인의 정보를 보호하기 위한 방안들이 많이 제시되고 있다. 이런 방안의 한 분야로 CPU와 메모리를 가진 스마트카드가 널리 사용되고 있으며, 스마트카드 중에서도 다양한 응용 프로그램을 사용 가능하게 하는 자바카드의 사용이 확대되고 있다. 자바카드 파일 시스템의 표준은 따로 정의되어 있지 않지만, 일반적으로 스마트카드 파일 시스템 표준을 따른다. 하지만 스마트카드 파일 시스템 표준을 따름에 있어서 자바카드 가상기계의 특성상 데이터 및 코드의 중복사용으로 메모리 공간의 비효율적인 사용과 처리 속도가 늦어지는 단점을 가지고 있다. 따라서 본 논문에서는 자바카드의 이러한 단점을 해결하기 위해 File Cache 기법과 Direct Access 기법을 제안하여 최소한으로 코드 수를 줄여 메모리 공간의 효율적인 사용과 처리 속도를 개선한다.

  • PDF

콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구 (A Comparison Study on Data Caching Policies of CCN)

  • 김대엽
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.327-334
    • /
    • 2017
  • 네트워크 성능 향상을 위하여 CDN/P2P와 같은 기술들은 이전에 사용자들 또는 프락시 시스템에 저장되어 있는 복사본을 사용하도록 설계 되었다. CCN 역시 이와 같은 기능을 구현한다. 그러나 CDN/P2P와 달리, CCN은 이와 같은 캐시 기능을 네트워크 노드에 구현하고, 네트워크 노드들이 콘텐츠 요청 메시지에 직접 응답할 수 있도록 설계 되었다. 그러므로 CCN의 성능에 가장 중요한 요소는 캐시 되는 콘텐츠와 노드를 결정하는 기술이다. 기본적으로, CCN은 콘텐츠가 전송될 때 경유하는 모든 네트워크 노드들에 해당 콘텐츠가 캐시 되도록 설계되었지만, 이와 같은 접근 방법은 중복 캐시 발생으로 인하여 매우 비효율적이라 할 수 있다. 이러한 문제를 해결하기 위하여 다양한 캐시 운영 방법이 제안되었다. 본 논문에서는 지금까지 제안된 캐시 운영 방안들을 살펴보고, 실제 운영을 위해 필요한 효과적인 캐시 운영을 위한 핵심 요구사항들을 제안한다.

2D Image Filter에 적합한 저전력 FIR Filter의 구현 (Low Power Architecture of FIR Filter for 2D Image Filter)

  • 한창영;박형준;김이섭
    • 대한전자공학회논문지SD
    • /
    • 제38권9호
    • /
    • pp.663-670
    • /
    • 2001
  • 본 논문은 여러 이산 신호 처리(Digital Signal Processing)에서 많이 사용되는 FIR Filter의 전력 소모를 줄이는 새로운 방법을 제안한다. FIR Filter에서 소모되는 전력 중 곱셈기가 차지하는 비중이 매우 높다라는 사실과 2D 영상에서 이웃한 픽셀 값의 공간 상관성이 높다라는 성질을 이용하였다. 곱셈기의 입력인 영상 데이터를 상대적으로 상관성이 높은 상위 비트(MSBs)와 상관성이 낮은 하위 비트(LSBs)로 구분하고, 각각에 대해서 필터링을 수행하도록 하였다. 또한, 입력의 상위 비트와 필터 계수와의 곱셈 결과는 캐쉬 (cache)에 저장하여 재사용함으로써 불필요한 상위 비트의 연산을 줄이도록 하였다. 이러한 방법을 SMT(Separated Multiplication Technique)라 부르기로 한다. FIR Filter를 사용함에 있어 제안된 SMT를 이용하였을 경우에 15%정도의 전력 이득 효과를 얻을 수 있었다.

  • PDF

데이터 이름 기반 네트워킹의 데이터 캐싱 관리 기법 (A Data Caching Management Scheme for NDN)

  • 김대엽
    • 한국멀티미디어학회논문지
    • /
    • 제19권2호
    • /
    • pp.291-299
    • /
    • 2016
  • To enhance network efficiency, named-data networking (NDN) implements data caching functionality on intermediate network nodes, and then the nodes directly respond to request messages for cached data. Through the processing of request messages in intermediate node, NDN can efficiently reduce the amount of network traffic, also solve network congestion problems near data sources. Also, NDN provides a data authenticate mechanism so as to prevent various Internet accidents caused from the absence of an authentication mechanism. Hence, through applying NDN to various smart IT convergence services, it is expected to efficiently control the explosive growth of network traffic as well as to provide more secure services. Basically, it is important factors of NDN which data is cached and where nodes caching data is located in a network topology. This paper first analyzes previous works caching content based on the popularity of the content. Then ii investigates the hitting rate of caches in each node of a network topology, and then propose an improved caching scheme based on the result of the analyzation. Finally, it evaluates the performance of the proposal.

고속 RFID 필터링 엔진의 설계와 캐쉬 기반 성능 향상 (Design of a High-Speed RFID Filtering Engine and Cache Based Improvement)

  • 박현성;김종덕
    • 한국통신학회논문지
    • /
    • 제31권5A호
    • /
    • pp.517-525
    • /
    • 2006
  • 본 논문은 다수의 RFID 태그가 사용되고 있는 환경에서 고속 필터링을 수행하기 위한 필터링 엔진을 설계한다. 이를 위하여 우리는 고속 라우터나 방화벽에 적용되었던 고속 패킷 필터링 기법이 RFID 데이터 필터링과 매우 유사함을 보이고 그 중 대표적인 기법인 Bit Parallelism 기반의 Aggregated Bit Vector(ABV)를 고속 RFID 필터링 엔진에 적용한다. 또한, RFID 데이터 필터링의 성향을 관찰한 결과 태그 인식 및 필터 부합의 시간적 중복성을 발견하고 두 가지 캐쉬(태그 캐쉬, 필터 캐쉬)를 적용하여 추가적인 필터링 성능 향상을 꾀하였다. 설계한 RFID 고속 필터링 엔진의 성능 평가를 위해 프로토타입 애플리케이션을 제작하여 시뮬레이션을 수행하였다. 결과로써 기존의 순차적인 RFID 데이터 필터링에 비해 고속의 필터링 성능을 보이며 특히 필터의 수가 증가할수록 필터링의 효율이 높아짐을 보인다.

Social-Aware Collaborative Caching Based on User Preferences for D2D Content Sharing

  • Zhang, Can;Wu, Dan;Ao, Liang;Wang, Meng;Cai, Yueming
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.1065-1085
    • /
    • 2020
  • With rapid growth of content demands, device-to-device (D2D) content sharing is exploited to effectively improve the service quality of users. Considering the limited storage space and various content demands of users, caching schemes are significant. However, most of them ignore the influence of the asynchronous content reuse and the selfishness of users. In this work, the user preferences are defined by exploiting the user-oriented content popularity and the current caching situation, and further, we propose the social-aware rate, which comprehensively reflects the achievable contents download rate affected by the social ties, the caching indicators, and the user preferences. Guided by this, we model the collaborative caching problem by making a trade-off between the redundancy of caching contents and the cache hit ratio, with the goal of maximizing the sum of social-aware rate over the constraint of limited storage space. Due to its intractability, it is computationally reduced to the maximization of a monotone submodular function, subject to a matroid constraint. Subsequently, two social-aware collaborative caching algorithms are designed by leveraging the standard and continuous greedy algorithms respectively, which are proved to achieve different approximation ratios in unequal polynomial-time. We present the simulation results to illustrate the performance of our schemes.