• 제목/요약/키워드: Cache server

검색결과 220건 처리시간 0.022초

T-Cache: 시계열 배관 데이타를 위한 고성능 캐시 관리자 (T-Cache: a Fast Cache Manager for Pipeline Time-Series Data)

  • 신제용;이진수;김원식;김선효;윤민아;한욱신;정순기;박세영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권5호
    • /
    • pp.293-299
    • /
    • 2007
  • 지능형 배관 검사체(PIG)는 가스나 기름 배관 안을 지나가며 검사체에 장착된 여러 센서로부터 신호(센서 데이타로 불림)들을 취합하는 장치이다. PIG로부터 취합된 센서데이타들을 분석함으로써, 배관의 구멍, 뒤틀림 또는 잠재적으로 가스 폭발의 위험을 가지고 있는 결함들을 발견할 수 있다. 배관의 센서 데이타를 분석가가 분석을 할 때에는 주로 두 가지 분석 패턴을 사용한다. 첫 번째는 센서 데이터를 순차적으로 분석하는 순차적 분석 패턴이고, 두 번째는 특정한 구간을 반복해서 분석하는 반복적 분석 패턴이다. 특히, 센서 데이타를 분석할 때 반복적 분석 패턴이 많이 사용된다. 기존의 PIG 소프트웨어들은 사용자의 요청이 있을 때 마다 서버로부터 센서 데이타들을 오므로, 매 요청마다 네트워크 전송비용과 디스크 액세스 비용이 든다. 이와 같은 방법은 순차적 분석 패턴에는 효율적이지만, 분석 패턴의 대부분을 차지하는 반복적 분석 패턴에는 비효율적이다. 이와 같은 문제는 서버/클라이언트 환경에서 다수의 분석가가 동시에 분석을 할 경우에는 매우 심각해진다. 이러한 문제점을 해결하기 위해 본 논문에서는 배관 센서 데이타들을 여러 개의 시계열 데이타로 생각하고, 효율적으로 시계열 데이타를 캐싱 하는 T-Cache라 부르는 주기억장치 고성능 캐시 관리자를 제안한다. 본 연구는 클라이언트 측에서 시계열 데이타를 캐싱하는 최초의 연구이다. 먼저, 고정된 거리의 시계열 데이타들의 집합을 캐싱 단위로 생각하는 신호 캐시 라인이라는 새로운 개념을 제안하였다. 다음으로, T-Cache에서 사용되는 스마트 커서와 여러 알고리즘을 포함하는 여러 가지 자료구조를 제안한다. 실험 결과, 반복적 분석 패턴의 경우 T-Cache를 사용하는 것이 디스크 I/O측면과 수행 시간 측면에서 월등한 성능 향상을 보였다. 순차적 분석 패턴의 경우에도 T-Cache를 사용하지 않은 경우와 거의 유사한 성능을 보였다. 즉, 캐시를 사용함으로써 발생하는 추가비용은 무시할 수 있음을 보였다.

이동 컴퓨팅 환경에서 데이터의 주기성을 고려한 캐쉬 일관성 기법 (A Cache Consistency Scheme to Consider Period of Data in Mobile Computing Environments)

  • 임종원;황병연
    • 한국멀티미디어학회논문지
    • /
    • 제10권4호
    • /
    • pp.421-431
    • /
    • 2007
  • 이동 통신 기술의 급격한 발전으로, 이동 컴퓨팅 환경에서 데이터 서비스에 대한 수요가 점차 증가하고 있다. 이동 컴퓨팅 환경에서의 여러 단점을 극복하고자 캐쉬가 등장하게 되었다. 이동 호스트 내에 캐쉬가 존재하면, 통신 대역폭의 절약 및 질의에 대한 빠른 응답을 가져올 수 있지만, 이동 호스트가 서버 데이터와의 캐쉬 일관성(consistency)을 유지시켜야 한다는 문제가 생기게 된다. 본 논문에서는 기존의 기법들이 가지는 문제점들을 보완하기 위해 데이터의 주기성을 고려한 캐쉬 일관성 유지 기법을 제안한다. 제안한 기법은 데이터를 주기적, 비주기적 데이터로 분류하고 주기적 데이터에 만료시간을 삽입한다. 또한 무효화 메시지를 저장해서 단절 후에 선별적으로 캐쉬 데이터가 나누어질 수 있도록 해서, 캐쉬 내의 데이터가 접속 단절 후에 일방적으로 버려지는 것을 막을 수 있게 된다. 이렇게 함으로서 서버와 이동 호스트간의 통신에 사용하는 전체 대역폭의 낭비와 서버접속에 필요한 이동 호스트의 전력의 낭비를 줄일 수 있다. 마지막으로 기존의 기법과의 실험을 통해서 제안한 기법의 효율성을 알아보고자 한다.

  • PDF

콘텐츠 중심 네트워크에서 성능 향상을 위한 인기도 기반 캐시 교체 기법 (Popularity Based Cache Replacement Scheme to Enhance Performance in Content Centric Networks)

  • 우태희;박흥순;김호길
    • 한국통신학회논문지
    • /
    • 제40권11호
    • /
    • pp.2151-2159
    • /
    • 2015
  • 콘텐츠 중심 네트워크(CCN)는 기존의 IP 방식과는 다른 새로운 네트워킹 패러다임으로써 데이터를 찾는데 필요한 라우팅 정보를 콘텐츠 이름에서 찾는 방식이다. CCN은 노드마다 콘텐츠를 저장할 수 있는 캐시를 가지고 있어서 반복적인 콘텐츠 요청에 효율적으로 처리할 수 있다. 본 논문은 콘텐츠의 인기도를 활용한 캐시 교체 기법을 제안하여 기존의 기법보다 캐시의 히트율을 향상시켰고, 이에 따라 서버의 부하 및 Round Trip Time(RTT) 시간이 감소하여 성능이 향상됨을 증명하였다.

LMF로 수정된 웹 프락시 캐쉬용 LRU페이지 교체 정책 (A Modified LRU Page Replacement Policy with LMF for Web Proxy Cache)

  • 이용임;김주균
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권7_8호
    • /
    • pp.426-433
    • /
    • 2003
  • 웹 사용자들의 QoS를 위해 채택되는 프락시 캐쉬의 관리 정책은 크게 페이지 교체와 일관성 유지 정책으로 볼 수 있다. 현재까지 이 두 가지의 연구는 서로간의 관린 유무를 떠나 독립적으로 진행되어 왔다. 본 논문에서는 LRU 페이지 교체 방식에 일관성 유지 정책에서 사용하는 최종 수정 인수의 특성을 도입함으로써 두 정책간의 상호 보완으로 프락시 캐쉬의 효율적 운영이 가능함을 보였다. 프락시 캐쉬의 관리를 위해 다양한 정책이 논의되고 있는 시점에서 이러한 시도는 캐쉬의 히트율 증가와 서버로의 전송 부하 감소 등과 같은 성능 향상을 위한 의미 있는 방법이 될 수 있을 것이다.

블록 암호 ARIA에 대한 Flush+Reload 캐시 부채널 공격 (Flush+Reload Cache Side-Channel Attack on Block Cipher ARIA)

  • 배대현;황종배;하재철
    • 정보보호학회논문지
    • /
    • 제30권6호
    • /
    • pp.1207-1216
    • /
    • 2020
  • 하나의 서버 시스템에 여러 운영체제를 사용하거나 사용자간 메모리를 공유하는 클라우드 환경에서 공격자는 캐시 부채널 공격을 통해 비밀 정보를 유출할 수 있다. 본 논문에서는 국내 표준 블록 암호 알고리즘인 ARIA를 사전 연산 테이블 기반 최적화 기법을 이용해 구현할 경우, 캐시 부채널 공격의 일종인 Flush+Reload 공격이 적용되는 것을 확인하였다. ARIA-128을 대상으로 한 Ubuntu 환경에서의 실험 결과, Flush+Reload 공격을 통해 16바이트의 마지막 라운드 키를 찾을 수 있었으며 나아가 마지막 라운드 키와 첫 번째 라운드 키를 이용하면 마스터 키를 찾을 수 있음을 증명하였다.

EXT3NS 파일 시스템을 위한 버퍼 캐시의 설계 및 구현 (Design and Implementation of Buffer Cache for EXT3NS File System)

  • 손성훈;정성욱
    • 한국정보통신학회논문지
    • /
    • 제10권12호
    • /
    • pp.2202-2211
    • /
    • 2006
  • EXT3NS 파일 시스템은 Network-Storage Card(NS 카드)라는 전용 하드웨어를 기반으로 하는 멀티미디어 스트리밍 서버를 위한 파일 시스템이다. EXT3NS는 NS 카드 상의 PCI memory(PMEM)를 이용, 스트리밍 시 디스크에 있는 데이터를 메인 메모리를 거치지 않고 바로 네트워크 카드로 내보냄으로써 스트리밍 서버의 성능을 향상시킨다. 본 논문에서는 NS 카드에 있는 PMEM을 기반으로 한 버퍼 캐시를 추가 설계, 구현하고, 이 버퍼 캐시가 EXT3NS 파일 시스템을 채용한 서버의 멀티미디어 스트리밍의 성능을 개선시킬 수 있음을 보인다. 또한, 제안된 버퍼 캐시 상에서 다수의 동시 사용자를 지원하는 멀티 미디어 스트리 밍 서버를 위한 버퍼 캐시 교체 정책인 Old New Section(ONS) 교체 기법을 제안한다. 제안된 OSN 교체 기법은 멀티미디어 스트리밍 환경에서 기존의 교체 정책들 보다 좋은 성능을 보인다. 성능 평가 결과, 다시 읽기동작과 무작위 읽기 동작에서 기존의 EXT3NS 파일 시스템 보다 PMEM에 캐시를 사용한 EXT3NS가 각각 평균 33MB/sec, 2.4MB/sec의 성능이 향상 되었다. 또한, 다시 읽기 동작의 경우 기존의 Least Frequently Used(LFU) 교체 정 책을 사용한 경우보다 ONS 교체 정책을 사용한 경우가 약 600KB/sec의 성능 증가를 보인다. 이러한 결과는 동시에 여러명의 사용자 요구를 처리해야 하는 대용량 멀티 미디어 스트리밍 서버에서 보다 효과적인 읽기 동작을 처리할 수 있음을 나타낸다.

이중 캐쉬 서버를 사용한 실시간 데이터의 좡대역 네트워크 대역폭 감소 정책 (A Strategy To Reduce Network Traffic Using Two-layered Cache Servers for Continuous Media Data on the Wide Area Network)

  • 박용운;백건효;정기동
    • 한국정보처리학회논문지
    • /
    • 제7권10호
    • /
    • pp.3262-3271
    • /
    • 2000
  • 연속형 미디어 데이터는 대용량이고 실시간으로 전송되어야 하므로 데이터 전송 시에 네트워크에 많은 부하를 주게 된다. 이러한 네트워크는 부하 문제를 해결하기 위하여 프락시 서버가 사용되며 프락시 서버에는 자주 접근되는 데이터가 저장되어 원래의 데이터가 존재하는 서버로의 네트워크 교통량을 줄이게 된다. 그러나 현재의 프락시 서버는 텍스트나 이미지 데이터등의 비 연속형 데이터만을 고려하여 설계되었으므로 연속형 미디어 데이터의 캐슁에는 적합하지 않다. 그러므로 본 연구에서는 연속형 미디어 데이터의 특징을 고려하여 프락시 서버를 두 계층으로 나누어 배치하여 데이터를 캐슁하고 데이터의 접근 패턴과 크기를 동시에 고려한 재할당 정책을 사용하여 캐쉬공간을 관리하는 프락시 서버 관리 정책을 제안한다. 제안된 정책에서는 각각의 LAN 마다 하나의 프락시 서버가 존재하며 각 LAN은 여러 개의 서브LAN으로 나뉘어 져서 이러한 각각의 서브 LAN에는 또한 하나의 서브 LAN 프락시가 존재한다. 이에 병행하여 각각의 데이터들도 각각 전방 분할(front-end partition)과 후방 분할(rear-end partition)로 나뉘어져서 해당 데이터의 참조 유형에 따라 하나의 프락시에 동시에 저장되기도 하고 LAN 캐쉬 서버와 서브 LAN 캐쉬 서버에 각각 따로 저장되기도 한다. 이러한 정책을 사용함으로써 전체 데이터를 단위로 캐슁할 경우보다 데이터공간의 할당과 재할당에 따른 오버헤드가 감소함으로써 궁극적으로는 원래의 저장 서버로의 네트워크 교통량을 보다 더 감소시킬 수 있다.

  • PDF

멀티미디어 웹 서비스를 위한 캐시 정책 (Cache Policies for Multimedia Web Server)

  • 최영주;임재현;김치수;이준연
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(상)
    • /
    • pp.379-382
    • /
    • 2003
  • 본 논문에서는 멀티미디어 웹 서버에 나타나는 통신량을 추적하여 사용자의 액세스 패턴을 분석하고 그에 따른 캐싱 모델을 수립하였다. 적중률과 바이트적중률을 동시에 향상시키기 위한 파일 타입 캐시 정책을 제안하였으며, 성능을 평가한 결과 캐시의 유용성을 개선하였다.

  • PDF

스트리밍 미디어의 캐쉬 서버를 위한 재배치 정책의 설계와 성능분석 (Design and Performance Evaluation of Replication Policy For Streaming Media Cache Server)

  • 임은지;정성인
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.921-924
    • /
    • 2003
  • 본 논문은 인터넷 상에서 서비스되는 스트리밍 미디어를 캐쉬 서버에서 캐슁할 때 적용할 수 있는 재배치 정책에 관한 것이다. 스트리밍 미디어의 특성에 적합한 재배치 기준을 제시하고, 그에 따라 미디어 데이터를 캐슁하고 재배치하는 방법을 제안한다. 또한, 제안한 재배치 정책과 기존의 알려진 방법들에 대한 성능 비교 분석을 수행 한다.

  • PDF

RTSP에 기만한 스트리밍 캐쉬 서버 (A RTSP-based Streaming Cache Server)

  • 오재학;차호정
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (3)
    • /
    • pp.79-81
    • /
    • 2001
  • 본 논문은 멀티미디어 스트리밍 환경에서 RTSP 표준화 프로토콜을 기반한 스트리밍 캐쉬 서버를 설계하고 구현한다. 또한 기존의 스트리밍 시스템과 호환성을 유지하기 위해 캐쉬 서버의 On-Demand 스트리밍 서비스를 지원하는 RTSP 세션 제어 기능의 응용과 절차에 대하여 기술한다.

  • PDF