• 제목/요약/키워드: 웹 캐싱

검색결과 75건 처리시간 0.021초

IEEE WAVE 기반의 무선 네트워크를 위한 핸드오버 프로토콜 (A Handover Protocol for the IEEE WAVE-based Wireless Networks)

  • 최정욱;이혁준;최용훈;정영욱
    • 한국ITS학회 논문지
    • /
    • 제10권1호
    • /
    • pp.76-83
    • /
    • 2011
  • ITS(Intelligent Traffic System) 통신을 위한 국제표준인 IEEE WAVE(Wireless Access for Vehicular Environment) 규격은 핸드오버 기능을 제공하지 않는다. 본 논문에서는 IEEE WAVE 기반의 고속도로 통신 네트워크에서 웹 페이지, CCTV 동영상 비디오클립 등의 멀티미디어 기반 서비스를 제공하기 위한 능동적(proactive) 핸드오버 프로토콜을 제안한다. 제안하는 핸드오버 프로토콜은 핸드오버 시작 전에 기존의 RSU에게 범위 이탈을 알림으로써 OBU(On-Board Unit)로 향하는 데이터를 다음 RSU로 전달하여 사전캐싱을 하도록 한 후, OBU의 범위내 진입시 최종적으로 OBU에게 전송하여 핸드오버 과정을 완료한다. 시뮬레이션을 통해 본 핸드오버 프로토콜이 처리량과 전송성공률 그리고 핸드오버 지연시간 측면에서 우수함을 보인다.

확장성 있는 캐시 서버 클러스터에서의 부하 분산을 위한 동적 서버 정보 기반의 해싱 기법 (Hashing Method with Dynamic Server Information for Load Balancing on a Scalable Cluster of Cache Servers)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제14A권5호
    • /
    • pp.269-278
    • /
    • 2007
  • 캐시 서버 클러스터에서의 캐싱은 인터넷 트래픽 및 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해시 함수를 이용하여 캐시가 협동성(Cooperative Caching)을 가지도록 하는 것이다. 캐시가 협동성을 가진다는 것은 캐시 서버 수와 무관하게 캐시 메모리 전체 크기를 일정하게 할 수 있다는 것을 의미한다. 반면에 캐시가 협동성을 가지지 않는다면 각 캐시 서버가 모든 캐시 데이터를 가져야 하므로 캐시 메모리 전체 크기가 캐시 서버 수에 비례하여 증가한다. 해싱을 이용한 방법의 문제점은 해시의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 캐시 서버 클러스터의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 동적 서버 정보를 이용하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 방법을 제안한다. 16대의 컴퓨터를 이용하여 실험을 수행하였고 실험 결과는 기존 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고 이에 따라 전체 캐시 서버 클러스터의 성능이 향상됨을 확인하였다.

InnoDB 기반 DBMS에서 다중 버퍼 풀 오버헤드 분석 (An Analysis of the Overhead of Multiple Buffer Pool Scheme on InnoDB-based Database Management Systems)

  • 송용주;이민호;엄영익
    • 정보과학회 논문지
    • /
    • 제43권11호
    • /
    • pp.1216-1222
    • /
    • 2016
  • 대규모 웹 서비스의 등장으로 데이터의 규모가 점차 증가하는 추세이다. 이러한 대규모 데이터를 효율적으로 관리하기 위해 MySQL과 MariaDB와 같은 DBMS가 주로 사용되고 있으며, 이들은 데이터 관리를 위한 스토리지 엔진으로 InnoDB를 주로 사용한다. InnoDB는 ACID를 보장할 뿐만 아니라 대규모 데이터 처리에 적합하다는 장점이 있기 때문이다. InnoDB의 경우, I/O 성능 향상을 위해 버퍼 풀을 통해 데이터와 인덱스를 캐싱하며 락 경쟁(lock contention)을 줄이기 위해 다중 버퍼 풀을 지원한다. 그러나 다중 버퍼 풀 기법은 데이터 일관성 오버헤드를 증가시킨다. 본 논문에서는 다중 버퍼 풀 기법의 오버헤드를 분석한다. 실험 결과, 다중 버퍼 풀 기법을 사용함에 따라 락 경쟁이 최대 46.3%까지 완화되었지만 디스크 I/O와 fsync 명령이 증가하면서 DBMS의 처리량이 50.6%까지 떨어지는 현상을 확인하였다.

SBR-k(Sized-based replacement-k) : 데이터 그리드 환경에서 파일 교체 (SBR-k(Sized-base replacement-k) : File Replacement in Data Grid Environments)

  • 박홍진
    • 한국콘텐츠학회논문지
    • /
    • 제8권11호
    • /
    • pp.57-64
    • /
    • 2008
  • 데이터 그리드는 대용량의 데이터 어플리케이션 처리를 위해 지리적으로 분산되어 있는 저장 자원을 제공한다. 대용량을 처리해야 하는 데이터 그리드 환경에서는 기존 웹 캐싱 정책이나 가상 메모리 캐쉬 교체 정책과는 다른 파일 교체 정책이 필요하다. LRU(Least Recently Used)나 LCB-K(Least Cost Beneficial based on K), EBR(Economic-based cache replacement), LVCT(Least Value-based on Caching Time) 같은 기존의 파일 교체 전략은 파일 교체를 위해 추가적인 자원이 필요하거나 미래를 예측해야한다. 본 논문은 이를 해결하기 위해 파일의 크기에 기반하여 파일 교체를 수행하는 SBR-k(Sized-based replacement-k)을 제안한다. 제안된 정책은 불확실한 미래 예측의 부담을 줄이고, 요청된 파일에 대응되는 교체 파일의 개수가 적게 하이 위해 파일 크기를 고려하였다. 성능평가 결과 캐쉬 크기가 작은 경우에 적중률이 비슷하나 캐쉬 크기가 크면 본 논문에서 제시한 정책이 우수함을 보였다.

무선 인터넷 프록시 서버 클러스터 시스템에서 라운드 로빈을 이용한 해싱 기법 (A Hashing Scheme using Round Robin in a Wireless Internet Proxy Server Cluster System)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제13A권7호
    • /
    • pp.615-622
    • /
    • 2006
  • 무선 인터넷 프록시 서버 클러스터 환경에서의 캐싱은 인터넷 트래픽, 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해쉬 함수를 이용하여 동일 요청 URL을 동일 캐시에 할당하는 방법이다. 해싱을 이용한 방법의 문제점은 해쉬의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 시스템의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 해싱과 라운드 로빈 방식의 장점을 결합하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 개선된 부하 분산 방법을 제안한다. 기존 해싱 방법에서는 요청 URL에 대한 해쉬값이 계산되면 캐시 서버가 컴파일 시간에 정적으로 할당되는 반면, 제안된 방법에서는 라운드 로빈 방법을 사용하여 실행 시간에 동적으로 할당된다. 제안된 방법은 무선 인터넷 프록시 서버 클러스터 환경에서 구현되었고, 16대의 컴퓨터를 이용하여 실험을 수행하였다. 실험 결과는 기존 해싱 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고, 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 52%에서 112%까지 향상됨을 확인하였다.