• 제목/요약/키워드: data cache

검색결과 487건 처리시간 0.035초

지식 맵을 위한 캐슁 기법 (A Caching Mechanism for Knowledge Maps)

  • 정준원;민경섭;김형주
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제10권3호
    • /
    • pp.282-291
    • /
    • 2004
  • 데이타를 효과적으로 다루기 위한 방법으로 데이타에 부가정보를 추가하는 TopicMap이나 RDF같은 지식맵에 대한 연구가 늘고 있다. 하지만 기존의 연구는 정보표현과 기술, 응용방안에 대한 연구가 주를 이루고 있으며 구현과 서비스에 대한 연구는 부족한 상태이다. 본 논문에서는 TopicMap 시스템에서의 캐쉬 관리 기능의 구현을 통해 실질적인 지식맵 서비스를 지원하기 위해 고려해야 할 부분 중에서 지식맵의 효과적인 접근을 지원하기 위한 방법을 제안하였다. 먼저 기존 탐색방법의 장점을 최대한 수용하는 탐색 기법을 제안하고 이러한 환경하에서 지식맵 전송 효율을 향상시키고자 지식맵이 가지는 정보를 이용하는 캐쉬기법을 제안하였다. 본 논문에서 제안한 캐쉬기법은 어플리케이션의 접근 형태에 따른 물리, 논리적 단위로 정보를 캐쉬하는 기존의 방식과 달리 사용자가 지식을 접근하는 관점에서 효율을 높이고자 하였다. 즉 지식맵이 이미 자신에 대한 부가 정보뿐만 아니라 다른 지식간의 연관관계와 같은 정보를 가지고 있으므로 이러한 정보를 클러스터링 요소로 이용, 실제 사용 자가 지식맵을 탐색하는데 있어 접근확률이 높도록 캐쉬집합을 생성하도록 하였다. 또한 캐쉬집합을 교체 하는 방법에 있어서도 지식맵의 그래프 관계와 같은 정보의 연관성을 이용, 필요한 부분만을 전송함으로써 효율을 높이는 방법을 제안하였다.

HIPSS : SPAX(주전산기 IV) RAID시스템 (HIPSS : A RAID System for SPAX)

  • 이상민;안대영;김중배;김진표;이해동
    • 전자공학회논문지C
    • /
    • 제35C권6호
    • /
    • pp.9-19
    • /
    • 1998
  • 병렬 처리 시스템을 이용한 대용량 온라인 트랜잭션 처리(OLTP: on line transaction processing)와 같이 고 성능, 고 신뢰성을 요구하는 응용 환경에서 RAID 는 입출력 시스템에 필수적으로 요구되는 병렬 디스크 입출력 기술이다. 본 논문은 대용량 OLTP를 주 응용 분야로 설계된 주전산기 IV에 장착될 RAID 시스템인 HIPSS의 구조 및 구현 내용에 대하여 다루고 있다. HIPSS는 고 성능, 고 신뢰성, 외부 인터페이스의 표준화 및 모듈화, 편리한 시스템 관리 등을 설계 목표로 구현된 범용 RAID 시스템으로서, 10개의 독립적인 입출력 채널, 대용량의 데이터 캐쉬, 패리티 연산 하드웨어를 제공하여 시스템 성능 향상을 도모한다. 외부 정합 하드웨어를 쉽게 교체할 수 있게 설계하여 호스트 정합의 재구성이 용이하며, 또한 전원, 제어기의 이중화, 디스크 hot swapping 등의 기능을 제공하여 시스템의 신뢰성을 향상시킨다. HIPSS는 현재 구현이 완료되어 PC와 주전산기 IV를 이용한 기능 시험을 성공적으로 수행하였으며, 성능 개선 요소를 찾기 위한 시험을 수행 중에 있다. 본 논문에서는 HIPSS 시스템의 구조에 대한 자세한 설명과 구현 결과를 중심으로 기술한다.

  • PDF

PC향 SSD의 성능 분석을 위한 트랜잭션 수준 시뮬레이터 (A Transaction Level Simulator for Performance Analysis of Solid-State Disk (SSD) in PC Environment)

  • 김동;방관후;하승환;정성우;정의영
    • 대한전자공학회논문지SD
    • /
    • 제45권12호
    • /
    • pp.57-64
    • /
    • 2008
  • 본 연구는 전송 수준 모델링 기법을 이용하여 SSD가 장착된 PC 시스템의 성능 분석 및 구조 탐색을 위한 시스템 수준 환경 구축을 제안한다. 구축된 시뮬레이션 환경은 SSD가 장착된 PC 시스템의 관점에서 다양한 구조적 변화에 대한 정량적인 성능 분석을 제공할 뿐만 아니라, 기존의 레지스터 전송 수준 모델링 기법보다 매우 빠른 시뮬레이션 속도를 제공한다. 구축된 시뮬레이터의 유용성을 보이기 위하여, PC 수준의 구조 탐색과 SSD 수준의 구조 탐색을 수행하였다. 특히 SSD 수준의 구조 탐색에서는 캐시 버퍼에서 저장된 데이터의 캐시 적중률에 따른 성능 변화와 NAND 플래시 메모리의 성능 변화가 전체 시스템 성능에 미치는 영향을 분석하였다. 이러한 실험 결과는 제안된 시뮬레이터가 PC 환경하에서 SSD 및 PC 구조의 성능 분석 및 구조 개선에 효율적으로 활용될 수 있음을 보여주었다.

부동 소수점 DSP를 이용한 MPEG-4 HVXC 인코더 및 디코더의 실시간 구현 (Real-time Implementation of MPEG-4 HVXC Encoder and Decoder on Floating Point DSP)

  • 강경옥;나훈;홍진우;정대권
    • 한국음향학회지
    • /
    • 제19권4호
    • /
    • pp.37-44
    • /
    • 2000
  • 본 논문에서는 인터넷 폰, 디지털 이동통신 등과 같이 낮은 비트율이 요구되는 분야에 사용될 수 있는 MPEG-4 오디오의 HVXC(Harmonic Vector eXcitation Coding) 알고리즘을 부동 소수점 DSP인 TMS320C6701에 실시간 구현한 내용을 기술한다. 실시간 동작을 위한 하드웨어 구조를 채택하였으며, 소프트웨어 최적화의 경우 연산 시간이 많이 소요되는 함수 루틴에 대한 C 언어 및 어셈블리 언어 레벨의 최적화를 수행하였다. 또한, DSP의 내부 프로그램 메모리의 프로그램 캐쉬로의 활용, DSP의 내부 데이터 메모리의 영역의 중첩 활용 및 background DMA 방식을 이용한 최적화를 수행하였다. 최적화 결과 2kbps및 4kbps의 비트율에서 압축 및 복원을 실시간으로 수행할 수 있으며, 인코더의 경우 2kbps의 경우에는 최적화 전에 비해 약 96% 정도로 수행시간을 단축하였다. 또한, 비공식 주관품질 평가에 의하면 2kbps의 비트율에서 약 MOS 2.45를 얻었다.

  • PDF

CC-NUMA 시스템에서의 동기화 기법에 대한 성능 비교 (Performance Comparison of Synchronization Methods for CC-NUMA Systems)

  • 문의선;장성태;전주식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권4호
    • /
    • pp.394-400
    • /
    • 2000
  • 동기화는 병렬 프로그램의 수행이 정확하게 이루어지도록 하기 위해 공유 데이타나 프로그램상의 임계구간(critical section)에 대해 배타적인 수행을 보장하는 것을 목적으로 한다. 배타적인 프로그램의 수행은 병렬 프로그램의 병렬성을 제한하므로 효율적인 동기화는 높은 성능의 병렬 프로그램 수행을 위해 반드시 필요하다. 이런 필요에 의해 응용 프로그램이나 시스템의 특성을 이용하여 동기화의 성능을 높이는 기법들이 고안되었다. 본 논문에서는 모의실험을 통해 캐시에 기반을 둔 NUMA(Non-Uniform Memory Access) 시스템에서 나타나는 기존 동기화의 비효율성을 분석하여 제시하고, 이 비효율성을 제거할 수 있는 Freeze&Melt 동기화 기법과의 성능을 비교한다. 제시된 결과를 통해 Test-and-Test&Set 동기화는 동기화 과정에서 발생하는 방송(broadcast) 작업에 의해 비효율이 발생하고, QOLB(Queue-On-Lock-Bit) 동기화는 공유 데이타나 임계구간을 수행할 프로세서의 순서가 미리 정해져 있다는 점에 의해 비효율이 발생함을 확인할 수 있다. 이와 같은 단점들을 극복하고자 제안된 Freeze&Melt 동기화를 이용하여 임계구간을 수행하기까지 대기하는 시간과 임계구간을 수행하는 시간을 줄이고, 클러스터간의 통신량(traffic)을 감소시킴으로써 성능의 향상을 이룰 수 있다.

  • PDF

배관 시계열 데이터를 위한 캐시 관리자의 설계 및 구현 (Design and implementation of a cache manager for pipeline time-series data)

  • 김선효;김원식;신제용;한욱신
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 추계학술발표대회 및 정기총회
    • /
    • pp.109-112
    • /
    • 2005
  • 배관에 생기는 구멍이나 틈은 대형 사고의 원인이 될 수 있다. 이러한 배관의 결함을 찾기 위해서는 먼저 센서를 부착한 배관 탐사 장비를 배관에 통과시키고, 배관을 통과하는 중에 센서가 읽은 정보들을 배관 탐사 장비의 하드 디스크에 저장한다. 배관 통과가 완료된 후, 분석가는 분석 프로그램을 사용하여 탐사 장비에서 얻은 데이터에서 결함을 수동적으로 찾는다. 분석가가 데이터를 분석할 때 일반적으로 두 가지 패턴이 존재한다. 첫 번째 패턴은 일정한 구간의 센서 데이터를 순차적으로 분석하는 패턴이고, 두 번째 패턴은 현재 구간에서 이전 구간으로 되돌아가서 다시 분석하는 반복적인 패턴이다. 현재까지 만족할 만 한 수준으로 자동적으로 분석이 되지 않으므로, 분석가는 수작업으로 분석을 하는 경우가 많은데 이로 인해 최근에 읽은 부분을 전후 반복해서 액세스하는 반복적인 패턴이 많이 사용된다. 반복적 패턴의 경우 시스템의 성능을 향상시키기 위해, 이전에 읽은 배관 센서 데이터를 캐싱 할 필요가 있다. 그러나 기존의 분석 소프트웨어에는 캐싱 기능이 없으므로 반복적 패턴일 경우 데이터베이스에서 동일한 데이터를 반복적으로 읽는 문제를 가지고 있다. 본 논문에서는 배관 센서 데이터를 효율적으로 관리하는 캐쉬 관리자를 설계하고 구현하였다. 세부적으로는, 배관 센서 데이터를 시계열 데이터로 간주하고, 시계열 데이터에 대한 캐시 관리자를 제안하였다. 본 논문은 배관 탐사 장비에서 획득한 데이터들을 시계열 데이터로 간주하여 데이터베이스 측면에서 이러한 문제들을 접근하였다는 점에서 의미가 있으며, 향후 이 분야에 대한 많은 연구들이 나올 것으로 기대한다.

  • PDF

모바일 통합 SNS 게이트웨이 통신 모듈 개발 (Development of Communication Module for a Mobile Integrated SNS Gateway)

  • 이신호;권동우;김현우;주홍택
    • 한국통신학회논문지
    • /
    • 제39B권2호
    • /
    • pp.75-85
    • /
    • 2014
  • 본 논문에서는 모바일 단말에서 실행되는 여러 종류의 모바일 애플리케이션 트래픽 중, 급격히 증가하고 있는 SNS 트래픽을 해결할 방안으로 모바일 통합 SNS 게이트웨이를 제안한다. 현재 모바일 SNS 애플리케이션들은 해당하는 SNS 서버에 각각 대응하여 개별적으로 접근하여 정보를 갱신한다. 우리가 제안하는 통합 SNS 게이트웨이는 다양한 SNS 애플리케이션들을 하나의 통합된 애플리케이션에서 반복되는 트래픽을 줄이고, 모바일 통신 성능을 개선한다. 본 논문에서 제안한 방법은 통신 성능을 개선하고, SNS 사용자에게 통합된 SNS를 제공하기 위해서 캐싱 엔진, 동기화 그리고 통합인증기능을 포함하고 있으며, 실제 통신 환경을 구축하여 제안한 설계를 바탕으로 모바일 통합 SNS 게이트웨이 통신 모듈과 프로토콜을 구현한 후, 게이트웨이의 캐시율 및 응답 시간에 대한 성능평가를 하였다.

플래시 메모리를 위한 Not-cold-Page 쓰기지연을 통한 LRU 버퍼교체 정책 개선 (Enhancing LRU Buffer Replacement Policy with Delayed Write of Not-cold-dirty-pages for Flash Memory)

  • 정호영;박성민;차재혁;강수용
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권9호
    • /
    • pp.634-641
    • /
    • 2006
  • 플래시 메모리는 비휘발성이며 빠른 I/O 처리 속도와 같은 많은 장점들이 있으나, in-placeupdate가 불가능하고 읽기/쓰기/지우기 작업의 속도가 다르다는 단점을 지니고 있다. 버퍼 캐시를 통해 플래시 메모리 기반 저장장치의 성능을 향상시키기 위해서는 수행 속도가 느림은 물론 지우기 작업의 수행 횟수에 직접적인 영향을 끼치는 쓰기 작업의 횟수를 줄이는 알고리즘이 필요하다. 본 논문에서는 기존의 LRU 버퍼교체 정책에 not-cold-dirty-page에 대한 교체를 지연하는 알고리즘을 적용한 새로운 버퍼교체 정책(LRU-Dirty Page Later-Cold Detection, 이하 LRU-DPL-CD)을 제시하고 성능을 분석한다. 트레이스 기반 시뮬레이션 실험에서 LRU-DPL-CD는 버퍼 적중률의 큰 감소 없이 쓰기 작업과 지우기 작업의 횟수를 감소시켰으며, 그 결과 전체 플래시 메모리의 I/O 수행속도가 증가하는 결과를 보였다.

Improving the Availability of Scalable on-demand Streams by Dynamic Buffering on P2P Networks

  • Lin, Chow-Sing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제4권4호
    • /
    • pp.491-508
    • /
    • 2010
  • In peer-to-peer (P2P) on-demand streaming networks, the alleviation of server load depends on reciprocal stream sharing among peers. In general, on-demand video services enable clients to watch videos from beginning to end. As long as clients are able to buffer the initial part of the video they are watching, on-demand service can provide access to the video to the next clients who request to watch it. Therefore, the key challenge is how to keep the initial part of a video in a peer's buffer for as long as possible, and thus maximize the availability of a video for stream relay. In addition, to address the issues of delivering data on lossy network and providing scalable quality of services for clients, the adoption of multiple description coding (MDC) has been proven as a feasible resolution by much research work. In this paper, we propose a novel caching scheme for P2P on-demand streaming, called Dynamic Buffering. The proposed Dynamic Buffering relies on the feature of MDC to gradually reduce the number of cached descriptions held in a client's buffers, once the buffer is full. Preserving as many initial parts of descriptions in the buffer as possible, instead of losing them all at one time, effectively extends peers’ service time. In addition, this study proposes a description distribution balancing scheme to further improve the use of resources. Simulation experiments show that Dynamic Buffering can make efficient use of cache space, reduce server bandwidth consumption, and increase the number of peers being served.

모바일 웹 서비스를 효율적으로 제공하기 위한 적응적 이미지 변환 기법 (Adaptive Image Converting for More Efficient Mobile Web Service)

  • 심근호;고희애;김종근;조미화;임영환
    • 인터넷정보학회논문지
    • /
    • 제12권2호
    • /
    • pp.37-46
    • /
    • 2011
  • 무선 인터넷의 발전으로 인해 모바일 단말기를 통해 제공되는 데이터 서비스의 중요도가 높아져 가고 있다. 하지만 모바일 단말기의 종류 및 통신사에 따라 지원 가능한 콘텐츠의 타입이 각기 다르기 때문에 모바일 단말기용 콘텐츠를 단말기와 통신사의 특성에 맞춰 따로 제작해야 하는 문제점이 있었다. 이러한 문제점을 해결하기 위해 접속하는 단말기 및 통신사의 타입에 따라 콘텐츠를 자동으로 변환해주는 변환기들이 개발되어 사용되고 있다. 그럼에도 불구하고 이렇게 실시간으로 자동변환해 주는 변환기는 변환에 따르는 시간이 소요되기 때문에 서비스 응답시간이 늦어진다는 치명적인 단점이 있다. 본 논문에서는 실시간 이미지 변환을 최소화하기 위한 이미지 캐시를 교체하는 방법을 제시한다. 또한 콘텐츠를 모바일 단말기의 특성에 맞춰 미리 변환하는 방법과 실시간으로 변환하는 방법을 혼합하여 미리변환에 따른 저장 공간의 낭비와 실시간 변환에 따른 응답시간의 지연을 해결하고자 한다.