• 제목/요약/키워드: Virtual disk

검색결과 64건 처리시간 0.032초

디스크 캐쉬 기법을 이용한 자바 가상 세계의 성능 향상 (Performance Enhancement of Java Virtual Machine using Disk Cache Mechanism)

  • 강정욱;김철기;이준원
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.92-94
    • /
    • 2000
  • 자바는 이동성, 호환성, 안정성을 위해서 자바 가상 기계를 이용한 수행 방법을 사용한다. 이는 수행 속도를 저하 시키는 한 요인이다. 그래서, 정적 컴파일 모델과 동적 컴파일 모델과 같은 자바 가상 세계의 성능을 높이기 위한 여러 연구들이 진행되었다. 정적 컴파일 모델은 자바의 특성을 해치며, 동적 컴파일 모델은 초기화 시간이 증가하는 문제점이 있다. 본 논문에서는 디스크 캐쉬 기법을 이용하여 동적 컴파일 모델에서 발생하는 초기화 시간을 줄이는 자바 가상 기계를 구현하였다. SPEC JVM98[1]을 이용하여 Kaffe[2] 와 비교했을 때, 초기화 시간이 2배에서 5배 정도 줄었음을 알 수 있었다.

  • PDF

Ramdisk를 사용하는 Embedded Linux System에서의 XIP 구현에 대한 연구 (Implementation of XIP Functionality in Embedded Linux with Ramdisk)

  • 정동환;김문회;이창훈;박호준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (A)
    • /
    • pp.115-117
    • /
    • 2001
  • 대부분의 embedded system에서 hard-disk 대용으로 flash memory를 사용하고 있으며, flash device에 압축 커널이미지와 root file system image를 가지고 있다. Booting 고정 중 커널의 압축이 풀리고 메모리에 로드되어 제어를 넘겨받으면 flash memory 상에 존재하는 root file system image를 ramdisk의 image로 로드하여 시스템은 결국 ramdisk에 root file system을 가지게 된다. Ramdisk 상의 프로그램을 실행하기 위해 메모리로 실행파일 이미지를 copy하는 과정을 피하고 ramdisk 상의 이미지를 바로 프로세스의 virtual memory area에 직접 매핑 시켜 주는 XIP(eXection-In-Place)를 구현함으로써 많은 메모리 절감 효과를 얻을 수 있다. 본 연구에서는 ramdisk를 root file system으로 사용하는 embedded system에서의 XIP 구조를 설계하고 구현하였다.

Windows NT 기반의 가상 디스크 설계 및 구현 (Design and Implementation of Windows NT-Based Virtual Disk)

  • 최수원;고정국
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (상)
    • /
    • pp.547-550
    • /
    • 2002
  • 일반적으로 사용자들은 파일을 효율적으로 관리하기 위해 대용량의 하드 디스크에 다수의 파티션을 생성하여 사용한다. 그러나, 컴퓨터 활용에 익숙치 않은 사용자들의 경우에는 체계적인 파일 관리가 되지 못하여 많은 애로를 겪기도 한다 특히, 하나의 컴퓨터를 여러 사람이 공동으로 사용할 경우에는 체계적인 파일 관리의 부재로 인한 파급 효과가 더욱 클 것이다. 본 논문에서는 기존의 디스크 파티션을 변경하지 않으면서 사용자 입장에서는 개인별로 별도의 디스크 파티션이 부여된 것처럼 느끼도록 하여 파일 관리에 도움을 줄 수 있는 가상 디스크 프로그램을 설계하고 구현하였다.

  • PDF

디스크 I/O 성능에 따른 가상 서버 통합에 대한 고찰 (A Study on Virtual Machine Consolidation According to DISK I/O Performance)

  • 한성근;신영호;김규석;김중백;김주영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.1599-1602
    • /
    • 2012
  • 스마트폰이나 태블릿PC와 같은 모바일기기 보급의 확산으로 모바일 클라우드 컴퓨팅이 발전하고 있다. 이와 같은 클라우드 컴퓨팅의 핵심 기술은 가상화 기술이며 서버 가상화가 근간을 이룬다. 가상 서버는 물리 서버의 성능 이상을 추구하고 있으며 디스크 I/O에 따라 성능이 크게 좌우된다. 본 논문에서는 가상 서버 상에서 NAS, Local SAS, PCI-SSD와 같은 다양한 디스크에 대한 I/O 성능을 테스트하였고, 이를 근거로 디스크 I/O 성능에 따른 가상 서버 통합에 대해 고찰하였다.

분포형 모형과 클라우드 서비스를 이용한 낙동강 실시간 유출해석시스템 개발 및 성능평가 (Development and Performance Assessment of the Nakdong River Real-Time Runoff Analysis System Using Distributed Model and Cloud Service)

  • 김길호;최윤석;원영진;김경탁
    • 한국지리정보학회지
    • /
    • 제20권3호
    • /
    • pp.12-26
    • /
    • 2017
  • 본 연구의 목적은 물리적 분포형 강우-유출 모형인 GRM(Grid based Rainfall-runoff Model)과 마이크로소프트 Azure(Microsoft cloud computing service)를 이용하여 낙동강 유역의 유출해석시스템을 개발하고, Azure의 가상머신(VM, Virtual Machine) 설정에 따른 시스템 실행시간을 평가하는 것이다. 이를 위해서 낙동강 유역을 20개의 소유역으로 구분하고, 각 소유역에 대해서 GRM 모형을 구축하였다. 각 유역의 유출해석은 상하류 위상관계를 유지하면서 독립된 프로세스로 실행된다. 실시간 유출해석을 위해 국토교통부의 실시간 강우레이더 자료와 댐방류량 자료를 이용한다. 유출해석시스템은 Azure에서 실행되며, 유출해석 결과는 웹을 통해서 가시화 된다. 연구결과 실시간 수문자료 수신서버와 유출해석 계산서버(Azure) 및 사용자 PC가 연계된 낙동강 실시간 유출해석시스템을 개발할 수 있었다. 유출해석을 위한 전산장비는 하드디스크와 메모리 보다는 CPU의 성능에 크게 의존하는 것으로 평가되었다. 유출해석시의 디스크 입출력(I/O)과 계산 프로세스를 분산함으로써 입출력과 계산 병목을 각각 감소시킬 수 있었고, 실행시간을 단축시킬 수 있었다. 본 연구의 결과는 고해상도의 공간 및 수문 자료를 활용하는 분포형 모형을 이용한 대유역 유출해석시스템을 구축하기 위한 기술로 활용될 수 있을 것이다.

실시간 모바일 GIS 응용 구축을 위한 주기억장치 데이터베이스 시스템 설계 및 구현 (Design and Implementation of a Main-Memory Database System for Real-time Mobile GIS Application)

  • 강은호;윤석우;김경창
    • 정보처리학회논문지D
    • /
    • 제11D권1호
    • /
    • pp.11-22
    • /
    • 2004
  • 최근 들어 계속되는 램 가격 하락으로 인해 대용량의 램을 사용하는 주기억장치 데이터베이스 시스템의 구축이 실현 가능하게 되었다. 주기억장치 데이터베이스는 여러 다양한 실시간 응용 분야를 위해 사용되며, 매년 CPU 속도가 60% 정도 증가되고, 메모리 속도가 10% 증가되는 현실에서, 케쉬 미스(Cache miss)를 얼마나 줄이느냐 하는 문제가 주기억장치 데이터베이스의 검색 성능 측면에서 가장 중요한 문제로 대두되고 있다. 본 논문에서는 이러한 환경을 고려한 실시간 모바일 GIS응용을 위한 주기억장치 데이터베이스 시스템을 설계 및 구현한다. 본 시스템은 크게 PDA를 사용하는 모바일 사용자를 위한 인터페이스 관리기와 가상 메모리 기법을 사용해 전체 데이터를 주기억장치에 상주시키며 관리하는 주기억 데이터 관리기, 공간 및 비 공간 질의를 처리하는 질의처리기, 새롭게 제시하는 공간 데이터를 위한 MR-트리 인덱스와 비 공간 데이터를 위한 T-트리 인덱스 구조를 관리하는 인덱스 관리기, 데이터를 디스크에 저장하기 위한 GIS 서버 인터페이스로 구성된다. 새롭게 제시하는 공간 인덱싱을 위한 MR-트리는 노트 분할이 발생될 경우, 입력 경로 상에 하나 이상의 빈 엔트리를 지니는 노드가 존재할 경우에만, 노드 분할을 상위로 전송한다. 그러므로 중간 노드들은 항상 100%에 가깝게 채워져 있게 된다. 본 논문의 실험 결과, 2차원의 MR-트리는 기존의 R-트리에 비해 2.4배 이상의 빠른 검색 속도를 나타냈다. 한편, 주 기억 데이터 관리기는 가상 메모리 제공을 위해 전체 벡터 데이터 및 MR-트리, T-트리, 데이터 객체 텍스트 정보를 페이지 단위로 분할하여 관리하고, 간접 주소 기법을 사용하여 디스크로부터의 재 로딩시 발생할 수 있는 문제점을 제거하였다.

요약된 Partitioned-Layer Index: Partitioned-Layer Index의 임의 접근 횟수를 줄이는 Top-k 질의 처리 방법 (Abstracted Partitioned-Layer Index: A Top-k Query Processing Method Reducing the Number of Random Accesses of the Partitioned-Layer Index)

  • 허준석
    • 한국멀티미디어학회논문지
    • /
    • 제13권9호
    • /
    • pp.1299-1313
    • /
    • 2010
  • Top-k 질의는 데이터베이스에서 사용자가 가장 원하는 k개의 객체를 구하는 질의이다. Top-k 질의를 효율적으로 처리하는 대표적인 연구로 Partitioned-Layer Index (간단히, PL-index) 방법이 있다. PL-index는 데이터베이스를 여러 개의 더 작은 데이터베이스로 분할하고 각 분할된 데이터베이스에 대해 sublayer들의 list (간단히, sublayer list)를 구성한다. 이때, 분할된 데이터베이스에 대해서 top-i 결과가 될 수 있는 객체들을 그 분할된 데이터베이스에 대한 i번째 sublayer로 구성한다. 그리고 주어진 질의에 맞춰 그 sublayer list들을 병합함으로써 질의 결과를 구한다. PL-index는 질의 처리 시 데이터베이스로부터 읽어 들이는 객체의 개수가 매우 작다는 장점을 가지지만, sublayer list들을 병합할 때에 임의 접근(random access)이 많이 발생하기 때문에 디스크 기반의 데이터베이스 환경에서 질의 처리 성능이 저하된다. 이에 본 논문에서는 임의 접근 횟수를 줄임으로써 디스크 기반의 데이터베이스 환경에서 PL-index의 질의 처리 성능을 크게 향상시키는 요약된(Abstracted) Partitioned-Layer Index (간단히, APL一index)를 제안한다. 먼저, PL-index의 각 sublayer를 가상의 (점) 객체로 요약함으로써 sublayer list들을 이러한 점 객체들의 list들(즉, APL-index)로 변형한다. 그리고 APL-index에 대해 질의 처리를 가상으로 수행하여 실제 질의 처리 시 접근할 sublayer를 예측한다, 그리고 예측된 sublayer들을 sublayer list별로 한꺼번에 읽어 들임으로 PL-index에서 발생하는 임의 접근 횟수를 줄인다. 합성 데이터와 실제 데이터에 대한 실험을 통하여 제안한 APL-index가 PL-index의 임의 접근 횟수를 크게 줄일 수 있음을 보인다.

리눅스에서 압축을 이용한 안정적인 네트웍 램의 설계 및 구현 (The Design and Implementation of the Reliable Network RAM using Compression on Linux)

  • 황인철;정한조;맹승렬;조정완
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권5_6호
    • /
    • pp.232-238
    • /
    • 2003
  • 기존 운영체제들은 물리적 메모리보다 더 많은 양의 메모리를 사용자에게 제공하기 위하여 가상 메모리 페이징 시스템을 사용한다. 가상 메모리 페이징 시스템에서는 물리적 메모리가 부족해지면 교체되는 메모리 내용을 저장시킬 수 있는 스왑 장치를 필요로 하는데, 기존 운영 체제들에서는 디스크를 스왑 장치로 사용한다. 디스크는 물리적 메모리에 비해 접근 속도가 매우 느리기 때문에 스왑핑이 일어나면 물리적 메모리의 접근 시간에 비해 많은 시간을 기다려야 한다. 여러 대의 PC를 빠른 네트웍으로 묶는 클러스터 환경에서는 디스크의 접근 시간보다 네트웍을 통하여 다른 워크스테이션의 메모리에 접근하는 시간이 더 빠르기 때문에 사용 가능한 다른 워크스테이션의 메모리를 디스크 대신 빠른 장치로 사용하고자 하는 네트웍 램이 제시되었다. 본 논문에서는 Linux 운영 체제에서 스왑 장치 관리자로 네트웍 램을 설계, 구현하여 디스크를 스왑 장치로 사용하는 시스템보다 네트웍 램을 스왑 장치로 사용하는 시스템이 프로그램 수행 속도에 있어 평균 40.3%의 성능 향상이 있었다. 그리고 기존 RAID 시스템에서 사용하던 안정성 제공 방법과 다른 프로세서의 성능을 효율적으로 이용하는 새로운 안정성 제공방법을 제시하였고 평가 결과 본 논문에서 제시한 새로운 안정성 제공 방법인 압축을 이용한 복사본을 두는 방법은 적은 서버 메모리와 메시지를 사용하여 유사한 성능을 나타낸다.

BubbleDoc: 클라우드 환경에서의 agent-free 파일시스템 분석을 통한 문서 위/변조 탐지 (BubbleDoc: Document Forgery and Tamper Detection through the Agent-Free File System-Awareness in Cloud Environment)

  • 전우진;홍도원;박기웅
    • 정보보호학회논문지
    • /
    • 제28권2호
    • /
    • pp.429-436
    • /
    • 2018
  • 전자문서는 생성 및 관리가 효율적이나 유통 및 전달 과정에서 사본이 생성되기 때문에 원본성을 상실하기 쉽다. 이러한 이유로 전자문서에 대한 다양한 보안 기술이 적용되었으나, 현재 사용되고 있는 보안 기술은 대부분 파일 접근 권한 제어, 파일 버전 및 이력 관리 등과 같은 문서 관리에 대한 것이므로 기밀문서와 같이 원본성 확보가 절대적으로 요구되어지는 환경에서는 사용이 불가능하다. 따라서 본 논문에서는 클라우드 컴퓨팅 환경에서 인스턴스 운영체제 내부에 별도의 에이전트 설치 없이 파일시스템 분석을 통하여 문서 위/변조를 탐지하는 기법을 제안한다. BubbleDoc은 인스턴스의 가상 볼륨 스토리지의 최소 영역을 모니터링하기 때문에 문서에 대한 위/변조를 효율적으로 탐지할 수 있다. 실험 결과에 따르면 본 논문에서 제안한 기술은 문서 위/변조 탐지를 위한 모니터링 수행에 있어서 1,000ms 주기로 설정하였을 때 0.16%의 디스크 읽기 연산 오버헤드를 보였다.

On-Chip SRAM을 이용한 임베디드 시스템 메모리 계층 최적화 (Memory Hierarchy Optimization in Embedded Systems using On-Chip SRAM)

  • 김정원;김승균;이재진;정창희;우덕균
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권2호
    • /
    • pp.102-110
    • /
    • 2009
  • 컴퓨터 시스템 분야의 대표적인 문제 중 하나는 메모리의 처리 속도가 CPU의 처리 속도보다 매우 느리기 때문에 생기는 CPU 휴면 시간의 증가, 즉 메모리 장벽 문제이다. CPU와 메모리의 속도 차이를 줄이기 위해서는 레지스터, 캐시 메모리, 메인 메모리, 디스크로 대표되는 메모리 계층을 이용하여 자주 쓰이는 데이터를 메모리 계층 상위, 즉 CPU 가까이 위치시켜야 한다. 본 논문에서는 On-Chip SRAM을 이용한 임베디드 시스템 메모리 계층 최적화 기법을 리눅스 기반 시스템에서 최초로 제안한다. 본 기법은 시스템의 가상 메모리를 이용하여 프로그래머가 원하는 코드나 데이터를 On-Chip SRAM에 적재한다. 제안된 기법의 실험 결과 총 9개의 어플리케이션에 대하여 최대 35%, 평균 14%의 시스템 성능 향상과 최대 40% 평균 15%의 에너지 소비 감소를 보였다.