• Title/Summary/Keyword: Partitioning methods

검색결과 242건 처리시간 0.023초

내장형 영상코딩을 위한 재귀적 SPIHT 알고리즘 (Recursive SPIHT(Set Partitioning in Hierarchy Trees) Algorithm for Embedded Image Coding)

  • 박영석
    • 융합신호처리학회논문지
    • /
    • 제4권4호
    • /
    • pp.7-14
    • /
    • 2003
  • EZW(Embedded Zerotree Wavelet) 알고리즘이 소개된 이래 일련의 내장형 웨이브렛 코딩 방법들이 제안되어져왔다. 이들의 하나의 공통된 특징은 EZW 알고리즘의 기본 아이디어를 근간으로 한다는 점이다. 특히 SPIHT(Set Partitioning in Hierarchy Trees) 알고리즘은 이들 중의 하나로서 산술 코더를 사용하지 않더라도 EZW와 같거나 혹은 더 나은 성능을 제공할 수 있기 때문에 널리 알려져 왔다. 본 연구에서는 내장형 영상코딩을 위한 재귀적 SPIHT(RSPIHT) 알고리즘을 제안하고 그 유효성을 실험적으로 가한다. 제안한 RSPIHT 알고리즘은 매우 단순하고 정형화된 형태를 지니면서 최악의 경우 시간복잡도 O(n)을 가진다. 실험영상들에 대해 T-layer 4 이상에서 SPIHT보다 평균 약 16.4%의 개선된 속도를 얻을 수 있었다. 압축률의 관점에서도 RSPIHT 알고리즘은 실험영상의 T-layer 7 이하에서는 SPIHT와 유사한 결과를 가지나 그보다 큰 T-layer에서는 개선된 결과를 보였다.

  • PDF

퍼지 그래프 기반의 수직 분할 알고리즘 (A Vertical Partitioning Algorithm based on Fuzzy Graph)

  • 손진현;최경훈;김명호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제28권3호
    • /
    • pp.315-323
    • /
    • 2001
  • 사용자의 질의 요청을 보다 빨리 지원하고 시스템 전체 처리량을 증가시키기 위한 하나의 방법으로 데이터 스키마의 수직 분할 문제가 많이 연구되어 왔다. 수직 분할의 대표적인 응 용 예로는 중앙 집중 시스템에서의 파일 분할, 분산 데이터베이스에서의 데이터 분산, 메모 리 계층사이의 데이터 분할 등이 있다. 일반적으로 수직 분할 알고리즘은 모든 유용한 단편 들의 생성과 임의 분할 지원 등의 두가지 기능을 효율적으로 지원할 수 있어야 한다. 그러 나, 기존의 제안된 방법들은 대부분 첫 번째 기능에 중점을 두고 있어 임의 분할 기능을 지 원하는데 많은 제한이 있다. 그리고 수직 분할 알고리즘에서 데이터 속성들이 포함될 단편 을 결정할 때 기본적으로 모호성 문제를 가지고 있기 때문에 이에 대한 효과적인 처리가 필 요하다. 본 논문에서는 퍼지 이론에 기반한 효율적인 수직 $\alpha$-분할 알고리즘을 제안한다. 이 방법은 퍼지 그래프 이론을 바탕으로 수직 분할에서의 모호성 문제를 해결하여 복잡한 수학적 계산 없이 모든 유용한 단편들을 생성할 수 있다. 또한, 범용 임의 분할 기능도 효과 적으로 지원할 수 있다.

  • PDF

Protein Motif Extraction via Feature Interval Selection

  • Sohn, In-Suk;Hwang, Chang-Ha;Ko, Jun-Su;Chiu, David;Hong, Dug-Hun
    • Journal of the Korean Data and Information Science Society
    • /
    • 제17권4호
    • /
    • pp.1279-1287
    • /
    • 2006
  • The purpose of this paper is to present a new algorithm for extracting the consensus pattern, or motif from sequence belonging to the same family. Two methods are considered for feature interval partitioning based on equal probability and equal width interval partitioning. C2H2 zinc finger protein and epidermal growth factor protein sequences are used to demonstrate the effectiveness of the proposed algorithm for motif extraction. For two protein families, the equal width interval partitioning method performs better than the equal probability interval partitioning method.

  • PDF

Frequency and Subcarrier Reuse Partitioning for FH-OFDMA Cellular Systems

  • Lee, Yeonwoo;Kim, Kyung-Ho
    • 한국멀티미디어학회논문지
    • /
    • 제16권5호
    • /
    • pp.601-609
    • /
    • 2013
  • One of the most serious factors constraining the next generation cellular mobile consumer communication systems will be the severe co-channel interference experienced at the cell edge. Such a capacity-degrading impairment combined with the limited available spectrum resource makes it essential to develop more spectrally efficient solutions to enhance the system performance and enrich the mobile user's application services. This paper proposes a unique hybrid method of frequency hopping (FH) and subcarrier-reuse-partitioning that can maximize the system capacity by efficiently utilizing the available spectrum while at the same time reduce the co-channel interference effect. The main feature of the proposed method is that it applies an optimal combination of different frequency reuse factors (FRF) and FH-subcarrier allocation patterns into the partitioned cell regions. From the simulation results, it is shown that the proposed method can achieve the optimum number of subcarrier subsets according to the frequency-reuse distance and results in better performance than the fixed FRF methods, for a given partitioning arrangement. The results are presented in the context of both blocking probability and BER performances. It will also be shown how the proposed scheme is well suited to FH-OFDMA based cellular systems aiming at low co-channel interference performance and optimized number of subcarriers.

하드웨어/소프트웨어 통합설계를 위한 FDS 분할 알고리즘의 성능개선 (Performance Improvement of Force-directed Partitioning Algorithm for HW/SW Codesign)

  • 오주영;이면재;이준용;박도순
    • 정보처리학회논문지A
    • /
    • 제9A권4호
    • /
    • pp.491-496
    • /
    • 2002
  • 하드웨어/소프트웨어 통합설계를 위한 대부분의 분할 알고리즘들은 스케줄링을 고려하지 않기 때문에 분할결과를 스케줄 하였을 때에 시간제약을 만족하지 못한다면 재분할 해야하는 오버헤드가 있다. 분할 단계에서 스케줄링을 함께 고려하는 FDS를 응용하는 기존의 방법들은 분할 될 노드를 선택하면서 그 노드가 스케줄 되어야 하는 제어구간을 결정한다. 분할될 노드의 선택은 한 노드를 분할함으로써 상승하는 비용 또는 시간과 그 노드의 스케줄로 인해 다른 노드들의 스케줄을 방해하는 정도를 함께 고려한다. 이때, 다른 노드들의 스케줄을 방해하는 정도를 의미하는 유도 힘은 자신과 종속성을 갖는 노드들의 모든 제어구간에서 계산된다. 본 논문은 FDS를 응용하는 분할 방법으로서 노드의 스케줄 긴박도와 상대적 스케줄 긴박도를 정의하여 분할하는데, 노드들의 모빌리티 중에서 처음 제어단계와 마지막 제어단계에서의 상대적 스케줄 긴박도 계산만으로 분할을 결정하기 때문에 기존의 FDS 응용 방법에서의 유도힘 계산에 소요되는 시간복잡도를 개선한다. 벤치마크들에 대한 실험 결과는 기존의 FDS 응용 방법과 비교해서 개선된 알고리즘 실행시간을 보인다.

고차원 데이타 패킹을 위한 주기적 편중 분할 방법 (A Cyclic Sliced Partitioning Method for Packing High-dimensional Data)

  • 김태완;이기준
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권2호
    • /
    • pp.122-131
    • /
    • 2004
  • 이전의 연구들에서 제안된 많은 색인 방법들은 저차원과 동적인 환경을 가정하고 제안되었다. 그러나 최근의 많은 데이타베이스 응용분야들은 대용량, 고차원 그리고 정적인 환경에 대한 처리를 요구하고 있다. 따라서 기존의 저차원이고 동적인 환경에서 제안되었던 색인 구축 전략들은 특히 데이타 및 공간 분할에 있어서 새로운 환경에 잘 적응하지 못한다. 본 연구에서 우리는 이러한 사실들을 지적하였고, 새로운 환경에 적응하는 색인 구축 시 적용되는 새로운 분할 전략을 성능 모델에 근거하여 제안하였다. 우리의 접근 방법은 기본적으로 정적인 환경에서 색인 구축에 사용되는 패킹이라는 기법을 적용하였다. 그리고 고차원 환경에서 질의 성능의 기대 값을 제시하는 민코프스키-합 비용모델에 대한 관찰 결과를 이용하였다. 이러한 것들에 바탕을 두어 우리는 데이타 및 공간을 균등하게 분할하는 것보다 불균등하게 분할하는 것이 좋을 것이라는 예측을 비용 모델에 대한 관찰 결과로써 도출하였다. 그리고 이러한 결과를 이용한 불균등 분할 방법과 성능 모델들을 제시하였다. 이 연구의 결론으로서 균등 분할 방법보다 불균등 분할 방법이 고차원 환경에서 더 효율적인 방법임을 성능 모델 및 실험을 통하여 보여주었다. 그리고, 어떻게 불균등하게 분할하는 것이 좋은지에 대한 명확한 계량적 기준들을 제시하였다.

다중블록/다중영역분할 기법을 이용한 유동해석 코드 병렬화 (Parallelization of Multi-Block Flow Solver with Multi-Block/Multi-Partitioning Method)

  • 주완돈;이보성;이동호;홍승규
    • 한국항공우주학회지
    • /
    • 제31권7호
    • /
    • pp.9-14
    • /
    • 2003
  • 본 연구에서는 다중블록 격자를 병렬화 하기 위해서 다중블록/다중영역분할 기법을 제안하였다. 이 방법은 각 블록을 사용하고자 하는 프로세서의 개수만큼 나눔으로써 전체 프로세서에 대해서 균일한 로드 밸런싱을 유지할 수 있는 장점이 있다. 영역분할 기법에 따른 병렬화 효율 및 속도 향상률을 비교하기 위해서 다중블록/단일 영역분할 기법과 다중블록/다중 영역분할 기법을 서로 비교 하였으며, 블록간의 격자수가 크게 다른 경우 다중영역 분할 기법이 로드 밸런싱에 있어서 보다 안정적임을 확인 할 수 있었다. 또한 이를 CFDS에 적용함으로써 다중블록 다중영역분할 기법의 효용성을 검증하였다. 3차원 계산의 경우 프로세서 16개를 사용하는 경우 약 12배의 속도 향상률을 보였으며, 다중블록을 병렬화 하는데 있어서 다중블록/다중영역 분할 기법이 효율적인 도구가 될 수 있음을 보였다.

분산 객체 지향 데이타베이스에서 클래스의 기법 (Vertical class fragmentation in distributed object-oriented databases)

  • 이순미;임해철
    • 한국통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.215-224
    • /
    • 1997
  • This paper addresses the vertical class fragmentation in distributed object-oriented databases. In the proposed vertical fragmentation, after producing the attribute fragment by partitioning attributes, then the method fragment is produced by gathering methods referring the attribute in each fragment. For partitioning attributes, we define query access matrix(QAM) and method access matrix(MAM) to express attributes that method refers, and extend QAM, MAM and attribute usage matrix(AUM) to universal class environment for representing relationship among other classes through class hierarchy and class composite hierarchy.

  • PDF

A New Connected Coherence Tree Algorithm For Image Segmentation

  • Zhou, Jingbo;Gao, Shangbing;Jin, Zhong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권4호
    • /
    • pp.1188-1202
    • /
    • 2012
  • In this paper, we propose a new multi-scale connected coherence tree algorithm (MCCTA) by improving the connected coherence tree algorithm (CCTA). In contrast to many multi-scale image processing algorithms, MCCTA works on multiple scales space of an image and can adaptively change the parameters to capture the coarse and fine level details. Furthermore, we design a Multi-scale Connected Coherence Tree algorithm plus Spectral graph partitioning (MCCTSGP) by combining MCCTA and Spectral graph partitioning in to a new framework. Specifically, the graph nodes are the regions produced by CCTA and the image pixels, and the weights are the affinities between nodes. Then we run a spectral graph partitioning algorithm to partition on the graph which can consider the information both from pixels and regions to improve the quality of segments for providing image segmentation. The experimental results on Berkeley image database demonstrate the accuracy of our algorithm as compared to existing popular methods.

Spatial Statistic Data Release Based on Differential Privacy

  • Cai, Sujin;Lyu, Xin;Ban, Duohan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권10호
    • /
    • pp.5244-5259
    • /
    • 2019
  • With the continuous development of LBS (Location Based Service) applications, privacy protection has become an urgent problem to be solved. Differential privacy technology is based on strict mathematical theory that provides strong privacy guarantees where it supposes that the attacker has the worst-case background knowledge and that knowledge has been applied to different research directions such as data query, release, and mining. The difficulty of this research is how to ensure data availability while protecting privacy. Spatial multidimensional data are usually released by partitioning the domain into disjointed subsets, then generating a hierarchical index. The traditional data-dependent partition methods need to allocate a part of the privacy budgets for the partitioning process and split the budget among all the steps, which is inefficient. To address such issues, a novel two-step partition algorithm is proposed. First, we partition the original dataset into fixed grids, inject noise and synthesize a dataset according to the noisy count. Second, we perform IH-Tree (Improved H-Tree) partition on the synthetic dataset and use the resulting partition keys to split the original dataset. The algorithm can save the privacy budget allocated to the partitioning process and obtain a more accurate release. The algorithm has been tested on three real-world datasets and compares the accuracy with the state-of-the-art algorithms. The experimental results show that the relative errors of the range query are considerably reduced, especially on the large scale dataset.