• Title/Summary/Keyword: 정적데이타

Search Result 62, Processing Time 0.032 seconds

Design and Implementation of Real-Time Static Locking Protocol for Main-memory Database Systems (주기억장치 데이타베이스 시스템을 위한 실시간 정적 로킹 기법의 설계 및 구현)

  • Kim, Young-Chul;You, Han-Yang;Kim, Jin-Ho;Kim, June;Seo, Sang-Ku
    • Journal of KIISE:Databases
    • /
    • v.29 no.6
    • /
    • pp.464-476
    • /
    • 2002
  • Main-memory database systems which reside entire databases in main memory are suitable for high-performance real-time transaction processing. If two-phase locking(2PL) as concurrency control protocol is used for the transactions accessing main-memory databases, however, the possibility of lock conflict will be low but lock operations become relatively big overhead in total transaction processing time. In this paper, We designed a real-time static locking(RT-SL) protocol which minimizes lock operation overhead and reflects the priority of transactions and we implemented it on a main-memory real-time database system, Mr.RT. We also evaluate and compare its performance with the existing real-time locking protocols based on 2PL such as 2PL-PI and 2PL-HP. The extensive experiments reveal that our RT-SL outperforms the existing ones in most cases.

Design and Implementation of a Real-Time GIS Engine for LBS (LBS를 위한 실시간 GIS 엔진의 설계 및 구현)

  • 윤재관;김동오;한기준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10c
    • /
    • pp.244-246
    • /
    • 2002
  • 최근 무선 인터넷과 핸드폰, PDA, HPC 등과 같은 모바일 장치의 발전으로 인하여 이동체의 위치를 중심으로 하는 LBS가 점차적으로 많은 분야에서 사용되고 있다. 이동체의 위치 데이타는 GPS와 같은 위치 측정 시스템을 이용하여 대용량으로 발생하게 되는데 기존의 정적인 데이타를 처리하기 위한 GIS를 사용하여 이러한 데이타를 처리하는 것은 비효율적이다. 그러므로, 본 논문에서는 이러한 동적인 데이타를 효과적으로 처리할 수 있는 LBS를 위한 실시간 GIS 엔진을 설계 및 구현하였다. 본 논문에서의 실시간 GIS 엔진은 LBS에서 필요한 공간, 비공간, 위치 데이타를 효과적으로 관리할 수 있다. 실시간 GIS 엔진은 인터페이스 관리자, 질의 관리자, 인덱스 관리자, 데이타 로더, 레이어 관리자, 위치 데이타 관리자, 메타 데이타 관리자, 객체 관리자로 구성되어 있으며 기존의 HP 실시간 데이타베이스 시스템에 공간 데이타 타입, 공간 연산자, 가변 길이 데이타 처리, 테이블 자동 확장 기능 등을 추가하여 LBS에서 사용되는 대용량 가변 길이 데이타를 효과적으로 처리할 수 있도록 하였다.

  • PDF

Metadata Management for E-Commerce Transactions in Digital Library (디지털 도서관에서 전자상거래 트랜잭션을 위한 메타데이타 관리 기법)

  • Choe, Il-Hwan;Park, Seog
    • Journal of KIISE:Databases
    • /
    • v.29 no.1
    • /
    • pp.34-43
    • /
    • 2002
  • Since traditional static metadata set like Dublin Core has static metadata attributes about bibliography information, integration of metadata for various metadata, problems about standard and extension of metadata must be considered for applying it to new environment. Specially, as event-driven metadata write method included the notion of e-commerce come out for interoperability in digital libraries, traditional metadata management which cannot distinguish between different kinds of update operations to new extension of metadata set occurs unsuitable waiting of update operation. So, improvement is needed about it. In this paper, we show whether alleviative transaction consistency can be applied to digital library or not. Also it would divide newer metadata into static metadata attribute connected in read operation within user read-only transaction and dynamic metadata attribute in update operation within dynamic(e-commerce) update transactions. We propose newer metadata management algorithm considered in classfication of metadata attributes and dynamic update transaction. Using two version for minimal maintenance cost and ARU(Appended Refresh Unit) for dynamic update transaction, to minimize conflict between read and write operations shows fast response time and high recency ratio. As a result of the performance evaluation, we show our algorithm is proved to be better than other algorithms in newer metadata environments.

(Dynamic Video Object Data Model(DIVID) (동적 비디오 객체 데이터 모델(DVID))

  • Song, Yong-Jun;Kim, Hyeong-Ju
    • Journal of KIISE:Software and Applications
    • /
    • v.26 no.9
    • /
    • pp.1052-1060
    • /
    • 1999
  • 이제까지 비디오 데이타베이스를 모델링하기 위한 많은 연구들이 수행되었지만 그 모든 모델들에서 다루는 비디오 데이타는 사용자의 개입이 없을 때 항상 미리 정의된 순서로 보여진다는 점에서 정적 데이타 모델로 간주될 수 있다. 주문형 뉴스 서비스, 주문형 비디오 서비스, 디지털 도서관, 인터넷 쇼핑 등과 같이 최신 비디오 정보 서비스를 제공하는 비디오 데이타베이스 응용들에서는 빈번한 비디오 편집이 요구되는데 실시간 처리가 바람직하다. 이를 위해서 기존의 비디오 데이타 내용이 변경되거나 새로운 비디오 데이타가 생성되어야 하지만 이제까지의 비디오 데이타 모델에서는 이러한 비디오 편집 작업이 일일이 수작업으로 수행되어야만 했다. 본 논문에서는 비디오 편집에 드는 노력을 줄이기 위해서 객체지향 데이타 모델에 기반하여 DVID(Dynamic Video Object Data Model)라는 동적 비디오 객체 데이타 모델을 제안한다. DVID는 기존의 정적 비디오 객체뿐만 아니라 사용자의 개입없이도 비디오의 내용을 비디오 데이타베이스로부터 동적으로 결정하여 보여주는 동적 비디오 객체도 함께 제공한다.Abstract A lot of research has been done on modeling video databases, but all of them can be considered as the static video data model from the viewpoint that all video data on those models are always presented according to the predefined sequences if there is no user interaction. For some video database applications which provides with up-to-date video information services such as news-on-demand, video-on-demand, digital library, internet shopping, etc., video editing is requested frequently, preferably in real time. To do this, the contents of the existing video data should be changed or new video data should be created, but on the traditional video data models such video editing works should be done manually. In order to save trouble in video editing work, this paper proposes the dynamic video object data model named DVID based on object oriented data model. DVID allows not only the static video object but also the dynamic video object whose contents are dynamically determined from video databases in real time even without user interaction.

Damage Detection in Steel Box Girder Bridge using Static Responses (강박스 거더교에서 정적 거동에 의한 손상 탐지)

  • Son, Byung Jik;Huh, Yong-Hak;Park, Philip;Kim, dong Jin
    • KSCE Journal of Civil and Environmental Engineering Research
    • /
    • v.26 no.4A
    • /
    • pp.693-700
    • /
    • 2006
  • To detect and evaluate the damage present in bridge, static identification method is known to be simple and effective, compared to dynamic method. In this study, the damage detection method in steel box girder bridge using static responses including displacement, slope and curvature is examined. The static displacement is calculated using finite element analysis and the slope and curvature are determined from the displacement using central difference method. The location of damage is detected using the absolute differences of these responses in intact and damaged bridge. Steel box girder bridge with corner crack is modeled using singular element in finite element method. The results show that these responses were significantly useful in detecting and predicting the location of damage present in bridge.

Modeling the Multilevel Security of Active Object-Oriented Databases (동적 객체지향 데이타베이스의 다단계 보안 모델링)

  • 김영균
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.4 no.2
    • /
    • pp.55-70
    • /
    • 1994
  • 본 논문은 데이타베이스의 동적 기능을 모형화하기 위해서 동적 규칙을 사건과 동적 규칙 객체로 취급하여 개념적 스키마에 표현하는 동적 객체지향 데이타 모델을 제안한다. 제안된 모델에서 정적 구조와 동적 구조에 대한 개념들을 정의하고 모형화 과정에서 사용자의 이해도를 증진시키는 모델의 구성요호에 대한 그래픽 다이어그램을 제시하였다. 그리고 동적 규칙이 데이타베이스 구조에 포함됨으로써 발생가능한 정보의 불법적인 노출 또는 변경을 방지하기 위해서 BLP모델의 보안 정책을 확장하여 제안된 모델에 대한 11가지 종류의 다단계 보안 성질들을 정의하였다. 또한, 정의된 다단계 보안 성질들이 타당한가를 조사하기 위해서 패트리네트를 확장하여, 보안 성질의 검증작업을 수행하였다.

Adaptive Load Balancing Scheme using a Combination of Hierarchical Data Structures and 3D Clustering for Parallel Volume Rendering on GPU Clusters (계층 자료구조의 결합과 3차원 클러스터링을 이용하여 적응적으로 부하 균형된 GPU-클러스터 기반 병렬 볼륨 렌더링)

  • Lee Won-Jong;Park Woo-Chan;Han Tack-Don
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.1_2
    • /
    • pp.1-14
    • /
    • 2006
  • Sort-last parallel rendering using a cluster of GPUs has been widely used as an efficient method for visualizing large- scale volume datasets. The performance of this method is constrained by load balancing when data parallelism is included. In previous works static partitioning could lead to self-balance when only task level parallelism is included. In this paper, we present a load balancing scheme that adapts to the characteristic of volume dataset when data parallelism is also employed. We effectively combine the hierarchical data structures (octree and BSP tree) in order to skip empty regions and distribute workload to corresponding rendering nodes. Moreover, we also exploit a 3D clustering method to determine visibility order and save the AGP bandwidths on each rendering node. Experimental results show that our scheme can achieve significant performance gains compared with traditional static load distribution schemes.

데이타 코드 생성 지원 전문가 시스템의 설계

  • 박대하;정인기;백두권
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 1993.04a
    • /
    • pp.265-274
    • /
    • 1993
  • 정보화 사회에서 대량으로 생산된 데이타 코드들은 일관된 설계 원칙없이 필요할 때마다 만들어 사용함으로써 정보의 중복 저장 및 정보교환에 있어서의 변환 작업등으로 인한 경비의 소요가 상당한 실정이다. 이러한 문제점에 대한 해결책으로 본 논문에서는 데이타코드 설계자가 일관성있게 데이타코드를 생성할 수 있도록 도와주는 데이타 코드 생성 지원 전문가 시스템의 설계에 관하여 연구하였다. 불완전 영역 설계를 위한 지식 획득과 표현에 적합한 전문가 시스템 쉘인 GUESS(Guideline Underlying Expert system Shell)를 설계하였다. GUESS는 전문가 시스템을 설계 지원 도구로 사용하는 사용자에게 기존에 작성된 적절한 설계 용례를 선택의 기준으로 제공하며, 유연성 있는 작업 지침들을 규칙으로 포함하고 있다. GUESS는 Prolog언어를 기반으로 한 추론기관과 설계지침을 포함하는 정적지식, 외부 데이타베이스를 연결한 동적 정보, 설계 세부방법을 담고 있는 부가도구들로 구성된다. GUESS/DCG는 데이타 코드 생성을 지원하기 위하여 데이타 코드의 유형과 선택기준 및 설계원리를 정적지식으로 가지며, 이를 경험적으로 탐색하는 추론 기관 및 사용자인 데이타 코드 설계자와 적절한 대화식 접근을 가능하게 하는 설명부분과 대화 인터페이스를 GUESS를 바탕으로 구현한 것이다. 특히 동적 정보의 적절한 이용과 데이타 코드의 통합된 저장, 일관성 있는 운영을 보장하기 위하여 개발중인 데이타 코드 관리시스템과의 인터페이스 부분을 추가하여 기존에 운영되고 있는 데이타 코드의 참고와 호환성, 확장성을 유지하였다. 이 시스템은 데이타 코드 관리시스템에 일관된 생성 수단을 제공하는것 외에도, 각 기관에서 대량으로 작성되는 데이타 코드를 유지, 보수하는 작업에도 큰 기여를 할 것이다.지의 선택작업이 행해지는 경우에 촛점을 맞추었다. 그리하여 다작업장의 휴리스틱에 의거한 작업순서 결정을 위해 우선 BB의 상한을 구하는 연구를 행했다. 이를 위해 우선 단일작업장에서 야기될 수 있는 모든 상황을 고려한 최적 작업순서 결정규칙을 연구했으며, 이의 증명을 위해 이 규칙에 의거했을 때의 보완작업량이 최소가 된다는 것을 밝혔다. 보완작업 계산의 효율성을 제고하기 위해 과부하(violation)개념을 도입하였으며, 작업유형이 증가된 상황에서도 과부하 개념이 보완작업량을 충분히 반영할 수 있음을 밝혔다. 본 연구에서 제시한 최적 작업순서 규칙에 의거했을 때 야기될 수 있는 여러가지 경우의 과부하를 모두 계산했다. 앞에서 개발된 단일작업량의 최적 작업순서 결정규칙을 이용하여 다작업장의 문제를 실험했다. 이 문제는 규모가 매우 크므로 Branch & Bound를 이용하였으며, 각 가지에서 과부하량이 최적인 경우만을 고려하는 휴리스틱을 택하여 실험자료를 이용하여 여러 회 반복실험을 행했다. 그리고 본 연구의 성과를 측정하기 위해 휴리스틱 기법시 소요되는 평균 CPU time 범위에서, 랜덤 작업순서에 따른 작업할당을 반복실험하여 이중 가장 좋은 해와 비교했다. 그러나 앞으로 다작업장 문제를 다룰 때, 각 작업장 작업순서들의 상관관계를 고려하여 보다 개선된 해를 구하기 위한 연구가 요구된다. 또한, 준비작업비용을 발생시키는 작업장의 작업순서결정에 대해서도 연구를 행하여, 보완작업비용과 준비비용을 고려한 GMMAL 작업순서문제를 해결하기 위한 연구가 수행되어야 할 것이다.로 이루어 져야 할 것이다.태를 보다 효율적으로 증진시킬 수 있는 대안이 마련되어져야 한다고 사료된다.$\ulcorner$순응$\lrcorner$의 범위를 벗어나지 않는다. 그렇기 때문에도

  • PDF

Hybrid Scheme of Data Cache Design for Reducing Energy Consumption in High Performance Embedded Processor (고성능 내장형 프로세서의 에너지 소비 감소를 위한 데이타 캐쉬 통합 설계 방법)

  • Shim, Sung-Hoon;Kim, Cheol-Hong;Jhang, Seong-Tae;Jhon, Chu-Shik
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.3
    • /
    • pp.166-177
    • /
    • 2006
  • The cache size tends to grow in the embedded processor as technology scales to smaller transistors and lower supply voltages. However, larger cache size demands more energy. Accordingly, the ratio of the cache energy consumption to the total processor energy is growing. Many cache energy schemes have been proposed for reducing the cache energy consumption. However, these previous schemes are concerned with one side for reducing the cache energy consumption, dynamic cache energy only, or static cache energy only. In this paper, we propose a hybrid scheme for reducing dynamic and static cache energy, simultaneously. for this hybrid scheme, we adopt two existing techniques to reduce static cache energy consumption, drowsy cache technique, and to reduce dynamic cache energy consumption, way-prediction technique. Additionally, we propose a early wake-up technique based on program counter to reduce penalty caused by applying drowsy cache technique. We focus on level 1 data cache. The hybrid scheme can reduce static and dynamic cache energy consumption simultaneously, furthermore our early wake-up scheme can reduce extra program execution cycles caused by applying the hybrid scheme.

A Cyclic Sliced Partitioning Method for Packing High-dimensional Data (고차원 데이타 패킹을 위한 주기적 편중 분할 방법)

  • 김태완;이기준
    • Journal of KIISE:Databases
    • /
    • v.31 no.2
    • /
    • pp.122-131
    • /
    • 2004
  • Traditional works on indexing have been suggested for low dimensional data under dynamic environments. But recent database applications require efficient processing of huge sire of high dimensional data under static environments. Thus many indexing strategies suggested especially in partitioning ones do not adapt to these new environments. In our study, we point out these facts and propose a new partitioning strategy, which complies with new applications' requirements and is derived from analysis. As a preliminary step to propose our method, we apply a packing technique on the one hand and exploit observations on the Minkowski-sum cost model on the other, under uniform data distribution. Observations predict that unbalanced partitioning strategy may be more query-efficient than balanced partitioning strategy for high dimensional data. Thus we propose our method, called CSP (Cyclic Spliced Partitioning method). Analysis on this method explicitly suggests metrics on how to partition high dimensional data. By the cost model, simulations, and experiments, we show excellent performance of our method over balanced strategy. By experimental studies on other indices and packing methods, we also show the superiority of our method.