• 제목/요약/키워드: interval Partition

검색결과 30건 처리시간 0.023초

Numerical Formula and Verification of Web Robot for Collection Speedup of Web Documents

  • 김원;김영기;진용욕
    • 인터넷정보학회논문지
    • /
    • 제5권6호
    • /
    • pp.1-10
    • /
    • 2004
  • A web robot is a software that has abilities of tracking and collecting web documents on the Internet(l), The performance scalability of recent web robots reached the limit CIS the number of web documents on the internet has increased sharply as the rapid growth of the Internet continues, Accordingly, it is strongly demanded to study on the performance scalability in searching and collecting documents on the web. 'Design of web robot based on Multi-Agent to speed up documents collection ' rather than 'Sequentially executing Web Robot based on the existing Fork-Join method' and the results of analysis on its performance scalability is presented in the thesis, For collection speedup, a Multi-Agent based web robot performs the independent process for inactive URL ('Dead-links' URL), which is caused by overloaded web documents, temporary network or web-server disturbance, after dividing them into each agent. The agents consist of four component; Loader, Extractor, Active URL Scanner and inactive URL Scanner. The thesis models a Multi-Agent based web robot based on 'Amdahl's Law' to speed up documents collection, introduces a numerical formula for collection speedup, and verifies its performance improvement by comparing data from the formula with data from experiments based on the formula. Moreover, 'Dynamic URL Partition algorithm' is introduced and realized to minimize the workload of the web server by maximizing a interval of the web server which can be a collection target.

  • PDF

통계적 정보기반 계층적 퍼지-러프 분류기법 (Statistical Information-Based Hierarchical Fuzzy-Rough Classification Approach)

  • 손창식;서석태;정환묵;권순학
    • 한국지능시스템학회논문지
    • /
    • 제17권6호
    • /
    • pp.792-798
    • /
    • 2007
  • 본 논문에서는 학습기법을 사용하지 않고 패턴분류의 성능을 최대화하면서 규칙의 수를 줄일 수 있는 통계적 정보기반 계층적 퍼지-러프 분류방법을 제안한다. 제안된 방법에서 통계적 정보는 계층적 퍼지-러프 분류 시스템에서 각 계층의 입력부 퍼지집합의 분할 구간을 추출하기 위해서 사용되었고, 러프집합은 통계적 정보로부터 추출된 분할 구간들과 연관된 퍼지 if-then 규칙의 수를 최소화하기 위해서 사용되었다. 제안된 방법의 효과성을 보이기 위해 Fisher의 IRIS 데이터를 사용한 기존 패턴분류 방법의 분류 정확도와 규칙들의 수를 비교하였다. 그 결과, 제안된 방법은 기존 방법들의 분류 성능과 유사함을 확인할 수 있었다.

부호화와 정보 엔트로피에 기반한 심방세동 (Atrial Fibrillation: AF) 패턴 분석 (Atrial Fibrillation Pattern Analysis based on Symbolization and Information Entropy)

  • 조익성;권혁숭
    • 한국정보통신학회논문지
    • /
    • 제16권5호
    • /
    • pp.1047-1054
    • /
    • 2012
  • 심방세동(Atrial Fibrillation:AF)은 각종 심장질환에서 비교적 빈번히 발생하는 부정맥으로 알려져 있으며, 그 발병률은 연령의 증가와 더불어 점차 증가한다. 전통적으로 심방세동을 검출하는 방법은 시간 영역 분석법과 주파수 영역분석법이 대부분이었다. 하지만 심전도 신호는 잡음의 영향을 많이 받는 환경에서 검출의 정확도가 떨어지며, 시간 주파수 영역 분석법은 RR 간격에 따라 변화하는 불규칙적 리듬에 관한 정보를 정확하게 얻지 못하는 단점이 있다. 본 연구에서는 부호화와 정보 엔트로피에 기반한 AF 패턴 분석 방법을 제안한다. 이를 위해 먼저 RR 간격 데이터를 차분 분할 방식을 통해 부호 서열화 한 후 그 리듬에 대한 패턴을 분석하고 이를 샤논의 정보 엔트로피를 통해 복잡도를 정량화하여 심방세동을 검출하였다. 성능 평가를 위해 10부터 100까지의 문턱값에 따른 엔트로피를 통해 복잡도를 분석하였으며 MIT-BIH 심방세동 데이터베이스를 이용하여 실험하였다.

분산 유전알고리즘의 TSP 적용 (Distributed Genetic Algorithms for the TSP)

  • 박유석
    • 대한안전경영과학회지
    • /
    • 제3권3호
    • /
    • pp.191-200
    • /
    • 2001
  • Parallel Genetic Algorithms partition the whole population into several sub-populations and search the optimal solution by exchanging the information each others periodically. Distributed Genetic Algorithm, one of Parallel Genetic Algorithms, divides a large population into several sub-populations and executes the traditional Genetic Algorithm on each sub-population independently. And periodically promising individuals selected from sub-populations are migrated by following the migration interval and migration rate to different sub-populations. In this paper, for the Travelling Salesman Problems, we analyze and compare with Distributed Genetic Algorithms using different Genetic Algorithms and using same Genetic Algorithms on each separated sub-population The simulation result shows that using different Genetic Algorithms obtains better results than using same Genetic Algorithms in Distributed Genetic Algorithms. This results look like the property of rapidly searching the approximated optima and keeping the variety of solution make interaction in different Genetic Algorithms.

  • PDF

Effects of Single Nucleotide Polymorphism Marker Density on Haplotype Block Partition

  • Kim, Sun Ah;Yoo, Yun Joo
    • Genomics & Informatics
    • /
    • 제14권4호
    • /
    • pp.196-204
    • /
    • 2016
  • Many researchers have found that one of the most important characteristics of the structure of linkage disequilibrium is that the human genome can be divided into non-overlapping block partitions in which only a small number of haplotypes are observed. The location and distribution of haplotype blocks can be seen as a population property influenced by population genetic events such as selection, mutation, recombination and population structure. In this study, we investigate the effects of the density of markers relative to the full set of all polymorphisms in the region on the results of haplotype partitioning for five popular haplotype block partition methods: three methods in Haploview (confidence interval, four gamete test, and solid spine), MIG++ implemented in PLINK 1.9 and S-MIG++. We used several experimental datasets obtained by sampling subsets of single nucleotide polymorphism (SNP) markers of chromosome 22 region in the 1000 Genomes Project data and also the HapMap phase 3 data to compare the results of haplotype block partitions by five methods. With decreasing sampling ratio down to 20% of the original SNP markers, the total number of haplotype blocks decreases and the length of haplotype blocks increases for all algorithms. When we examined the marker-independence of the haplotype block locations constructed from the datasets of different density, the results using below 50% of the entire SNP markers were very different from the results using the entire SNP markers. We conclude that the haplotype block construction results should be used and interpreted carefully depending on the selection of markers and the purpose of the study.

그리드 분할에 의한 다차원 데이터 디클러스터링 성능 분석 (Performance Analysis on Declustering High-Dimensional Data by GRID Partitioning)

  • 김학철;김태완;이기준
    • 정보처리학회논문지D
    • /
    • 제11D권5호
    • /
    • pp.1011-1020
    • /
    • 2004
  • 대규모의 데이터를 다루는 여러 시스템에서 데이터를 다수의 병렬 디스크에 분산시켜 저장한 후 질의 처리시 동시에 여러 개의 디스크를 접근함으로써 입출력 성능의 향상을 위한 많은 노력들이 행해져 왔다. 대부분 이전 연구들은 데이터 공간을 이루는 각 차원이 겹치지 않는 여러개의 구간으로 나누어져 전체 데이터 공간이 그리드 형태로 분할되어 있다는 가정하에 각 차원의 구간 번호로 결정되는 그리드 셀에 대해서 효과적으로 디스크 번호를 할당하는 알고리즘 개발에 집중되었다. 하지만, 그들은 데이터 공간을 그리드 형태로 분할하는 방법이 전체 디클러스터링 알고리즘 성능에 미치는 영향을 간과하였다. 본 논문에서 우리는 효과적인 그리드 분할을 통하여 매핑 함수를 이용하는 디클러스터링 알고리즘의 성능을 향상 시켰다. 이를 위하여 영역 질의 크기가 주어졌을 때 겹치는 그리드 셀의 수를 예측하는 모델을 제시하였으며 이를 이용하여 가능한 그리드 분할 방법들 중에서 질의 크기를 감소시키는 분할 방법을 선택하였다. 일반적으로, 다차원 데이터에 대해서는 이진 분할을 하지만 본 논문에서는 더 작은 수의 차원을 선택해서 여러 번 분할함으로써 질의를 만족하는 그리드 셀의 수를 감소시켰다. 다양한 실험 결과에 의하면 본 논문에서 제시한 예측 모델은 질의 크기와 차원에 관계없이 0.5% 이내의 에러율을 보이는 것으로 나타났다. 또한 효과적인 그리드 분할을 통하여 다차원 데이터에 대해서 가장 성능이 좋은 것으로 소개되고 있는 Kronecker sequence 매핑 함수를 이용하는 디클러스터링 알고리즘의 성능을 최대 23배까지 향상시킬 수 있음을 알 수 있었다.

귀환 전류 평면의 분할에 기인하는 신호 무결성의 효과적인 대책 방법 (An Effective Mitigation Method on the Signal-Integrity Effects by Splitting of a Return Current Plane)

  • 정기범;전창한;정연춘
    • 한국전자파학회논문지
    • /
    • 제19권3호
    • /
    • pp.366-375
    • /
    • 2008
  • 일반적으로 고속의 디지털부와 아날로그부의 귀환 전류 평면(Return Current Plane: RCP)은 분할된다. 이것은 PCBs(Printed Circuit Boards)에서 각 서브 시스템 사이의 노이즈가 서로 간섭을 일으키지 않도록 하기 위해 이루어지지만, 각 서브 시스템 사이에 연결된 신호선이 존재하는 경우, 이러한 분할은 원치 않는 효과를 발생시킨다. RCP의 분할은 회로적인 측면에서 신호 무결성(Signal Integrity)에 악영향을 미치고, EMI(Electromagnetic Interference) 측면에서 전자파의 복사 방출을 증가시키는 주된 요인이 된다. 이러한 신호 무결성을 유지하기 위한 방법으로 component bridge(저항 브릿지, 커패시터 브릿지, 페라이트 브릿지 등: CB)가 사용되고 있지만 아직 정확한 CB의 사용 지침이 부족한 실정이다. 본 논문에서는 신호 무결성 측면에서 다중-CB 사용 방법에 대한 설계 원리를 측정과 시뮬레이션을 통해 분석하고 노이즈 저감 방법에 대한 설계 방법을 제시하고자 한다. 일반적으로 CB, 사이의 간격은 ${\lambda}/20$로 페라이트 비드(ferrite bead)를 사용하도록 권장하고 있다. 본 논문은 CB의 다중 연결시 페라이트 비드와 칩 저항에 대한 설계 방법을 측정과 시뮬레이션을 통하여 증명하였고, 다중 연결된 칩 저항$(0{\Omega})$이 신호 무결성 측면에서 더욱 더 효과적인 설계 방법임을 증명하였다.

데이터 전처리를 이용한 다중 모델 퍼지 예측기의 설계 및 응용 (Design of Multiple Model Fuzzy Predictors using Data Preprocessing and its Application)

  • 방영근;이철희
    • 전기학회논문지
    • /
    • 제58권1호
    • /
    • pp.173-180
    • /
    • 2009
  • It is difficult to predict non-stationary or chaotic time series which includes the drift and/or the non-linearity as well as uncertainty. To solve it, we propose an effective prediction method which adopts data preprocessing and multiple model TS fuzzy predictors combined with model selection mechanism. In data preprocessing procedure, the candidates of the optimal difference interval are determined based on the correlation analysis, and corresponding difference data sets are generated in order to use them as predictor input instead of the original ones because the difference data can stabilize the statistical characteristics of those time series and better reveals their implicit properties. Then, TS fuzzy predictors are constructed for multiple model bank, where k-means clustering algorithm is used for fuzzy partition of input space, and the least squares method is applied to parameter identification of fuzzy rules. Among the predictors in the model bank, the one which best minimizes the performance index is selected, and it is used for prediction thereafter. Finally, the error compensation procedure based on correlation analysis is added to improve the prediction accuracy. Some computer simulations are performed to verify the effectiveness of the proposed method.

AN EVALUATION FORMULA FOR A GENERALIZED CONDITIONAL EXPECTATION WITH TRANSLATION THEOREMS OVER PATHS

  • Cho, Dong Hyun
    • 대한수학회지
    • /
    • 제57권2호
    • /
    • pp.451-470
    • /
    • 2020
  • Let C[0, T] denote an analogue of Wiener space, the space of real-valued continuous functions on the interval [0, T]. For a partition 0 = t0 < t1 < ⋯ < tn < tn+1 = T of [0, T], define Xn : C[0, T] → ℝn+1 by Xn(x) = (x(t0), x(t1), …, x(tn)). In this paper we derive a simple evaluation formula for Radon-Nikodym derivatives similar to the conditional expectations of functions on C[0, T] with the conditioning function Xn which has a drift and does not contain the present position of paths. As applications of the formula with Xn, we evaluate the Radon-Nikodym derivatives of the functions ∫0T[x(t)]mdλ(t)(m∈ℕ) and [∫0Tx(t)dλ(t)]2 on C[0, T], where λ is a complex-valued Borel measure on [0, T]. Finally we derive two translation theorems for the Radon-Nikodym derivatives of the functions on C[0, T].

Fast Algorithm for 360-degree Videos Based on the Prediction of Cu Depth Range and Fast Mode Decision

  • Zhang, Mengmeng;Zhang, Jing;Liu, Zhi;Mao, Fuqi;Yue, Wen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권6호
    • /
    • pp.3165-3181
    • /
    • 2019
  • Spherical videos, which are also called 360-degree videos, have become increasingly popular due to the rapid development of virtual reality technology. However, the large amount of data in such videos is a huge challenge for existing transmission system. To use the existing encode framework, it should be converted into a 2D image plane by using a specific projection format, e.g. the equi-rectangular projection (ERP) format. The existing high-efficiency video coding standard (HEVC) can effectively compress video content, but its enormous computational complexity makes the time spent on compressing high-frame-rate and high-resolution 360-degree videos disproportionate to the benefits of compression. Focusing on the ERP format characteristics of 360-degree videos, this work develops a fast decision algorithm for predicting the coding unit depth interval and adaptive mode decision for intra prediction mode. The algorithm makes full use of the video characteristics of the ERP format by dealing with pole and equatorial areas separately. It sets different reference blocks and determination conditions according to the degree of stretching, which can reduce the coding time while ensuring the quality. Compared with the original reference software HM-16.16, the proposed algorithm can reduce time consumption by 39.3% in the all-intra configuration, and the BD-rate increases by only 0.84%.