• 제목/요약/키워드: Cache data

검색결과 487건 처리시간 0.025초

월 쿠쿠: 해시 함수 분류를 이용한 메모리 접근 감소 방법 (Wall Cuckoo: A Method for Reducing Memory Access Using Hash Function Categorization)

  • 문성광;민대홍;장룡호;정창훈;양대헌;이경희
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제8권6호
    • /
    • pp.127-138
    • /
    • 2019
  • 데이터 응답 속도는 사용자 경험과 직결되기 때문에 클라우드 서비스의 중요한 이슈이다. 그렇기 때문에 사용자의 요청에 빠르게 응답하기 위하여 인-메모리 데이터베이스는 클라우드 기반 응용 프로그램에 널리 사용되고 있다. 하지만, 현재 인-메모리 데이터베이스는 대부분 연결리스트 기반의 해시 테이블로 구현되어 있어 상수 시간의 응답을 보장하지 못한다. 쿠쿠 해싱(cuckoo hashing)이 대안으로 제시되었지만, 할당된 메모리의 반만 사용할 수 있다는 단점이 있었다. 이후 버킷화 쿠쿠 해싱(bucketized cuckoo hashing)이 메모리 효율을 개선하였으나 삽입 연산시의 오버헤드를 여전히 극복하지 못하였다. 본 논문에서는 BCH의 삽입 성능과 탐색 성능을 동시에 향상시키는 데이터 관리 방법인 월 쿠쿠(wall cuckoo)를 제안한다. 월 쿠쿠의 핵심 아이디어는 버킷 내부의 데이터를 사용된 해시 함수에 따라 분리하는 것이다. 이를 통하여 버킷의 탐색 범위가 줄어들어 접근해야 하는 슬롯의 수를 줄일 수 있는데, 이렇게 탐색 연산의 성능이 향상되기 때문에 탐색 과정이 포함되어 있는 삽입 연산 또한 개선된다. 분석에 따르면, 월 쿠쿠에서의 슬롯 접근 횟수 기댓값은 BCH의 기댓값보다 작다. 우리는 월 쿠쿠와 BCH, 정렬 쿠쿠를 비교하는 실험을 진행하였으며, 각 메모리 사용률(10%-95%)에서 월 쿠쿠의 탐색 및 삽입 연산이 다른 기법보다 더 적은 슬롯 접근 횟수를 가지는 것을 보였다.

방송환경에서 이중 버전과 타임스탬프에 기반을 둔 낙관적 동시성 제어 기법 (Optimistic Concurrency Control based on 2-Version and TimeStamp for Broadcast Environment : OCC/2VTS)

  • 이욱현;황부현
    • 정보처리학회논문지D
    • /
    • 제8D권2호
    • /
    • pp.132-144
    • /
    • 2001
  • 방송환경은 서버(server)와 클라이언트간 대역폭이 서버에서 클라이언트쪽으로는 크고 클라이언트에서 서버쪽으로의 대역폭은 상대적으로 많이 작은 비대칭적(asymmetric) 특수한 환경이다. 또한 대부분의 방송 환경 응용시스템들은 클라이언트측에서 발생한 주로 주식 데이터, 교통 정보와 새로운 뉴스와 같은 여러 가지 다양한 정보를 검색하는 읽기전용 즉 질의 거래들을 허락한다. 그러나, 기존의 여러 가지 동시성 제어 기법들은 이러한 특수성을 고려하지 않음으로써 꽤 높은 데이터 경쟁 상태의 방송 환경에 적용될 때 성능 감소가 일어난다. 이 논문에서는 방송환경에서 가장 적절한 OCC/2VTS(Optimistic Concurrency Control based on 2-Version and TimeStamp)를 제안한다. OCC/2VTS는 캐쉬 내에 두 버전을 사용함으로써 타임스탬프 기법으로 클라이언트가 질의 거래를 자체 해결 할 수 있도록 하였다. 질의 거래 시작 후 2번의 무효화 방송을 통해 읽기 연산 대상 데이터 항목의 값이 바뀌지 않는다면 질의 거래가 갱신 거래의 완료와 상관없이 무사히 완료된다. 그 결과 첫째, 서버에게 완료 요구를 위해 정보를 보내는 기회가 감소하고 무효화 보고서 내에 갱신된 최신의 값을 포함하여 클라이언트들에게 방송함으로써 최근 데이터 값을 서버에게 요구하는 기회를 줄여 비대칭적 대역폭을 효율적으로 활용한다. 둘째, 질의 거래의 완료율을 최대한 높여 처리율을 향상시킨다.

  • PDF

IoT에서 효율적인 서비스 제공을 위한 이름 기반 서비스 탐색 메커니즘 (A Name-based Service Discovering Mechanism for Efficient Service Delivery in IoT)

  • 조국현;김정재;류민우;차시호
    • 한국산학기술학회논문지
    • /
    • 제19권6호
    • /
    • pp.46-54
    • /
    • 2018
  • IoT는 다양한 디바이스들이 통신을 통해 사용자에게 서비스를 제공하는 환경이다. IoT의 특성으로 인해 데이터들은 이종간의 정보시스템에 분산되어 저장된다. 이러한 상황에서 IoT 엔드 애플리케이션은 데이터가 어디에 있는지 또는 스토리지의 형태가 어떠한지 알 수 없어도 데이터를 액세스할 수 있어야 한다. 이러한 메커니즘을 SD(Service Discovery)라고 한다. 그러나 현재까지의 SD 구조는 물리적 디바이스를 중심으로 탐색하기 때문에 몇 가지 문제점이 발생한다. 첫째, 물리적 위치에 따른 서비스 탐색으로 인해 반환시간이 증대된다. 둘째, 디바이스와 서비스를 따로 관리하는 데이터 구조가 요구된다. 이는 관리자의 서비스 구성복잡도를 증가시킨다. 이로 인해 디바이스 중심의 SD 구조는 실제 IoT에 적용하기에는 적합하지 않은 구조로 되어 있다. 이러한 문제점을 해결하기 위하여 본 논문에서는 NSSD(Name-based Service Centric Service Discovery)라는 SD 구조를 제안한다. NSSD는 이름 기반의 중앙집중형 SD를 제공하며 IoT 에지 게이트웨이를 캐싱 서버로 사용해 서비스 탐색속도를 향상시킨다. 기존의 DNS와 DHT 기반 DS 구조와의 시뮬레이션을 통해 NSSD가 평균 반환시간에 있어 약 2배 정도 향상된 성능을 제공함을 입증하였다.

하이브리드 하드디스크를 위한 효율적인 데이터 블록 교체 및 재배치 기법 (An Efficient Data Block Replacement and Rearrangement Technique for Hybrid Hard Disk Drive)

  • 박광희;이근형;김덕환
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권1호
    • /
    • pp.1-10
    • /
    • 2010
  • 최근 낸드 플래시 메모리가 하드디스크 수준으로 읽기 성능이 향상되고, 전력소비가 훨씬 적음에 따라, 플래시메모리와 하드디스크를 같이 사용하는 하이브리드 하드디스크와 같은 이기종 저장장치들이 출시되고 있다. 하지만 낸드 플래시 메모리의 쓰기 및 삭제 속도가 기존 자기디스크의 쓰기 성능에 비해 매우 느릴 뿐 아니라, 사용자 층에서 쓰기 요청이 집중될 경우 CPU, 메인 메모리에 심각한 오버헤드를 발생시킨다. 본 논문에서는 비휘발성 캐시의 역할을 하는 낸드 플래시 메모리의 성능을 향상시키기 위해 읽기의 참조 빈도는 낮고, 쓰기의 갱신 빈도가 높은 데이터 블록들을 교체하는 LFU(Least Frequently Used)-Hot 기법을 제시하고, 교체 될 데이터 블록들을 재배치하여 자기디스크로 플러싱하는 기법을 제시한다. 실험 결과, 본 논문에서 제안하는 LFU-Hot 블록 교체 기법과 멀티존 기반의 데이터 블록 재배치기법 실행시간이 기존 LRU, LFU 블록 교체 기법들보다 입출력 성능 면에서 최대 38% 빠르고, 비휘발성 캐시의 수명을 약 40% 이상 향상 시킴을 증명하였다.

경량 사물 인터넷 클라우드를 위한 DB 기반 가상 파일 시스템 구현 (Implementation of a DB-Based Virtual File System for Lightweight IoT Clouds)

  • 이형봉;권기현
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권10호
    • /
    • pp.311-322
    • /
    • 2014
  • 사물 인터넷은 개인, 산업, 공공 분야를 망라하여 각 분야의 말단 기기나 센서에 대한 직접 접근을 추구하는 상시 연결 인터넷 개념이다. 사물 인터넷에서는 실시간 데이터 접근이 가능하고, 디바이스의 데이터 포맷과 구성 형태가 다양하다. 또한, 사물 인터넷 환경에서는 기기 제어를 위한 양방향 통신이 이루어지기도 한다. 이런 관점에서, 사물 인터넷은 주로 인간이 사용하는 데스크톱에서 생성된 데이터가 간단하고 일방적인 인터넷 통신을 통해 서버에 집중되는 기존 인터넷과 대비된다. 이러한 사물 인터넷의 클라우드 혹은 포털 서비스를 위해서는 분산된 디바이스들에 대한 체계적인 명명 서비스와 이들의 다양성을 포용할 수 있는 일관된 접근 인터페이스를 제공하는 파일 관리 프레임이 요구된다. 이 연구에서는 사물 인터넷 구성요소의 속성 정보를 유닉스 스타일의 파일 시스템 뷰로 관리하는 DB 기반 가상 파일 시스템을 구현한다. 구현된 가상 쉘에 로그인한 사용자들은 가상 파일 시스템을 항해함으로써 사물 인터넷 구성요소를 탐색할 수 있고, 유닉스 스타일의 파일 입 출력 API를 이용하여 디바이스에 직접 접근할 수 있다. 구현된 DB 기반 가상 파일 시스템은 디렉터리 체계와 분산된 데이터 및 디바이스에 대한 지시자만을 관리하므로 가볍고 유연하다. Mkdir(), chdir() 등 구현된 주요 가상 쉘 프리미티브에 대한 시험 결과, 구현된 가상 파일 시스템의 원활한 기능이 검증되었다. 그리고 구현 파일 시스템에 간단한 디렉터리 캐시 기법을 적용한 경우 윈도우 운영체제 파일 시스템보다 더 우수한 탐색 성능을 보였다.

통합메모리 장치에서 CPU-GPU 데이터 전송성능 연구 (A Performance Study on CPU-GPU Data Transfers of Unified Memory Device)

  • 권오경;구기범
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권5호
    • /
    • pp.133-138
    • /
    • 2022
  • 최근 고성능컴퓨팅, 인공지능 분야에서 GPU 장치 사용이 일반화되고 있지만, GPU 프로그래밍은 여전히 어렵게 여겨진다. 특히 호스트(host) 메모리와 GPU 메모리를 별도로 관리하기 때문에 성능과 편의성 방면에서 연구가 활발히 진행되고 있다. 이에 따라 여려가지 CPU-GPU 메모리 전송 방법들이 연구되고 있다. 한편 CPU와 GPU 및 통합메모리(Unified memory) 등 하나의 실리콘 패키지로 묶는 SoC(System on a Chip) 제품들이 최근에 많이 출시되고 있다. 본 연구는 이러한 통합메모리 장치에서 CPU, GPU 장치간 데이터를 사용하고 전송시 성능관련 비교를 하고자 한다. 기존 CPU내 호스트 메모리와 GPU 메모리가 분리된 환경과는 다른 특징을 보여준다. 여기서는 통합메모리 장치인 NVIDIA SoC칩들과 NVIDIA SMX 기반 V100 GPU 카드에서 CPU-GPU 간 데이터 전송 프로그래밍 기법별로 성능비교를 한다. 성능비교를 위해 워크로드는 HPC 분야의 수치계산에서 자주 사용하는 2차원 행렬 전치 커널이다. 실험을 통해 CPU-GPU 메모리 전송 프로그래밍 방법별 GPU 커널 성능차이, 페이지 잠긴 메모리와 페이지 가능 메모리를 사용했을 경우 전송 성능차이, 전체(Overall) 성능비교, 마지막으로 워크로드 크기별 성능비교를 하였다. 이를 통해 통합메모리칩인 NVIDIA Xavier에서 I/O 캐시일관성 지원을 통해 SoC 칩내 통합메모리에 대한 이점을 극대화 할 수 있음을 확인할 수 있었다.

공유 디스크 클러스터에서 친화도 기반 동적 트랜잭션 라우팅 (Affinity-based Dynamic Transaction Routing in a Shared Disk Cluster)

  • 온경오;조행래
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권6호
    • /
    • pp.629-640
    • /
    • 2003
  • 공유 디스크(Shared Disks: SD) 클러스터는 온라인 트랜잭션 처리를 위해 다수 개의 컴퓨터를 연동하는 방식으로, 각 노드들은 디스크 계층에서 데이타베이스를 공유한다. SD 클러스터에서 트랜잭션 라우팅은 사용자가 요청한 트랜잭션을 실행할 노드를 결정하는 것을 의미한다. 이때, 동일한 클래스에 속하는 트랜잭션들을 가급적 동일한 노드에서 실행시킴으로써 지역 참조성을 극대화할 수 있으며, 이를 친화도 기반 라우팅이라 한다. 그러나 친화도 기반 라우팅은 트랜잭션 클래스의 부하 변화에 적절히 대처할 수 없으며, 특정 트랜잭션 클래스가 폭주할 경우 해당 노드는 과부하 상태에 빠질 수 있다는 단점을 갖는다. 본 논문에서는 친화도 기반 라우팅을 지원하면서 SD 클러스터를 구성하는 노드들의 부하를 동적으로 분산할 수 있는 동적 트랜잭션 라우팅 기법을 제안한다. 제안한 기법은 지역 버퍼에 대한 참조 지역성을 높이고 버퍼 무효화 오버헤드를 줄임으로써 시스템의 성능을 향상시킬 수 있다.

AIOPro: 안드로이드 스마트폰을 위한 통합된 스토리지 I/O 분석도구 (AIOPro: A Fully-Integrated Storage I/O Profiler for Android Smartphones)

  • 한상욱;이인혁;류동욱;김지홍
    • 정보과학회 논문지
    • /
    • 제44권3호
    • /
    • pp.232-238
    • /
    • 2017
  • 사용자 경험이 중요한 스마트폰에서는 사용자의 입력에 대한 응용 프로그램의 반응 시간에 대한 분석이 필요하며 특히 사용자 반응 시간에 큰 영향을 주는 스토리지 I/O 성능의 분석은 사용자 경험최적화를 위한 중요한 요건이다. 사용자가 경험하는 반응 시간의 분석을 위해서는 입력을 받아들이는 최상위 계층에서 최하위 저장장치 계층을 수직적으로 아우르는 통합된 분석도구가 필요한데 기존의 도구들은 제한된 범위의 계층들에 맞추어 있어서 효과적인 사용자 경험 분석이 어려운 상황이다. 본 논문에서는 안드로이드 스마트폰을 대상으로 최상위 안드로이드 플랫폼, 리눅스 커널을 포함하는 전체 스토리지 I/O 계층의 I/O 동작을 측정하고, 이를 바탕으로 계층 통합적 분석을 통하여 각 계층간 I/O 동작을 연결하여 사용자 입력에 따른 스토리지 I/O가 미치는 영향의 분석이 가능한 도구인 AIOPro를 소개한다. 검증 실험을 통하여 AIOPro가 0.1% 미만의 동작부하로 정확히 분석할 수 있음을 확인하였다.

디스크 기반 그래프 엔진의 입출력 성능 향상을 위한 그래프 오더링 (Improving the I/O Performance of Disk-Based Graph Engine by Graph Ordering)

  • 임근학;김정현;이은재;서지원
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제24권1호
    • /
    • pp.40-45
    • /
    • 2018
  • 빅데이터와 소셜 네트워크의 발전과 더불어 거대한 그래프를 처리하는 연구도 활발하게 진행되고 있다. 최근 그래프 처리의 성능 향상을 위해 Gorder 라는 그래프 오더링 기법이 제안되었다. 이 기법은 메모리 상의 그래프 레이아웃을 변형하여 데이터 접근 패턴을 CPU 캐시에 적합하게 바꿈으로써 성능을 향상시킨다. 하지만 그래프 알고리즘의 캐시 지역성에만 초점을 두고 설계되었기 때문에 디스크 기반 그래프 엔진에서는 적합하지 않고 전처리 비용도 크다는 문제점이 있다. 제시한 문제점을 해결하기 위해, 본 논문에서는 새로운 그래프 오더링인 I/O Order를 제안하였다. I/O Order는 디스크 기반의 그래프 엔진에서 지역성 외에 입출력 부하를 고려하여 설계되었다. 또한, 오더링 비용을 줄이기 위해 간단한 scheme을 사용한다. 본 논문에서 제시된 I/O Order는 Gorder와 비교해 전처리 비용이 최대 9.6배 감소하였고 성능은 지역성이 낮은 그래프 알고리즘에서 Random 대비 최대 2배 이상 향상되었다.

모바일 환경에서 푸쉬 기술을 이용한 개인화된 멀티미디어 콘텐츠 추천 시스템 (A Multimedia Contents Recommendation System for Mobile Devices using Push Technology)

  • 김룡;강지헌;김영국
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.745-749
    • /
    • 2006
  • 다양한 휴대 인터넷 환경의 출현은 기존 모바일 기기의 네트워크 접근을 보다 쉽게 해주고 있다. 또한 무선 환경을 사용하는 모바일 기기 사용자는 유선 환경보다 사용자 프로파일 정보를 쉽게 구할 수 있는 특징이 있으며, 모바일 기기는 혼자 사용하는 특징을 가지고 있다. 이러한 모바일 기기의 특징은 개인화 서비스를 적용하기에 최적의 시스템이다. 본 논문에서는 모바일 기기 사용자를 위한 개인화된 모바일 콘텐츠 추천 서비스 방법으로 협업 필터링 방법을 통한 추천과 콘텐츠 푸쉬 서비스 방법을 제안한다. 협업 필터링에서는 모바일 기기 사용자 프로파일 정보로 사용자 선호 콘텐츠 추천을 수행하고, 추천된 사용자 선호 콘텐츠는 푸쉬 서비스를 통해 사용자 모바일 기기로 저장된다. 푸쉬 서비스 기술을 이용한 콘텐츠 추천은 모바일 기기 사용자로 하여금 무선 환경에 접속되어있을 때 사용자 취향에 맞는 콘텐츠를 미리 푸쉬 해 둠으로써 사용자가 콘텐츠를 선택하여 모바일 기기로 다운로드 하는 시간을 줄여 줄 수 있고 네트워크 단절 현상이 발생했을 때 푸쉬된 콘텐츠를 활용할 수 있는 장점이 있다.

  • PDF