• Title/Summary/Keyword: algorithm complexity

검색결과 2,992건 처리시간 0.029초

차세대 DVB-RCS 시스템을 위한 저 계산량 연판정 e-BCH 복호 알고리즘 (Low Computational Algorithm of Soft-Decision Extended BCH Decoding Algorithm for Next Generation DVB-RCS Systems)

  • 박태두;김민혁;임병수;정지원
    • 한국전자파학회논문지
    • /
    • 제22권7호
    • /
    • pp.705-710
    • /
    • 2011
  • 본 논문에서는 Chase 알고리즘 기반의 연판정 e-BCH 복호시 계산량을 감소하는 알고리즘을 제시하였다. Chase 알고리즘 기반의 연판정 e-BCH 복호 방식은 test pattern을 만들기 위해 수신 데이터 중 신뢰성이 낮은 데이터를 순서대로 찾기 위해 ordering을 한다. 데이터를 ordering하는 과정과 test pattern 수 만큼을 수신 데이터와 비교함으로써 최적의 복호 열을 찾는 과정에서 높은 복잡도가 요구되며, 본 논문에서는 이러한 복잡도를 줄이는 방안을 제시하여 계산량 및 성능 관점에서 비교 분석하였다.

N-Step Sliding Recursion Formula of Variance and Its Implementation

  • Yu, Lang;He, Gang;Mutahir, Ahmad Khwaja
    • Journal of Information Processing Systems
    • /
    • 제16권4호
    • /
    • pp.832-844
    • /
    • 2020
  • The degree of dispersion of a random variable can be described by the variance, which reflects the distance of the random variable from its mean. However, the time complexity of the traditional variance calculation algorithm is O(n), which results from full calculation of all samples. When the number of samples increases or on the occasion of high speed signal processing, algorithms with O(n) time complexity will cost huge amount of time and that may results in performance degradation of the whole system. A novel multi-step recursive algorithm for variance calculation of the time-varying data series with O(1) time complexity (constant time) is proposed in this paper. Numerical simulation and experiments of the algorithm is presented and the results demonstrate that the proposed multi-step recursive algorithm can effectively decrease computing time and hence significantly improve the variance calculation efficiency for time-varying data, which demonstrates the potential value for time-consumption data analysis or high speed signal processing.

다중해상도 알고리즘을 이용한 고속 움직임 정합 (High Speed Motion Match Utilizing A Multi-Resolution Algorithm)

  • 주헌식
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권2호
    • /
    • pp.131-139
    • /
    • 2007
  • 본 논문에서는 다중해상도 알고리즘을 제안하여 탐색점과 복잡도를 블록정합 알고리즘과 비교하여 나타내었다. 또한 스피드 업을블록정합 알고리즘과 비교 하였다. 제안한 다중해상도 NTSS-3 Level 알고리즘을 비교대상인 TSS-3 Level 알고리즘과 NTSS 알고리즘에 비교하였다. 비교 결과 탐색점과 스피드업에서 제안한 NTSS-3 Level 알고리즘이 우수함을 나타내었다. 따라서 제안한 NTSS-3 Level 알고리즘이 비교 대상인 블록정합 알고리즘에 비해 탐색점에서 $2{\sim}3$배 우수한 성능을 나타내었고 복잡도 계산에서도 $2{\sim}4$배의 우수함을 나타내었다. 스피트업에서도 제안한 NTSS-3 Level 알고리즘이 2배 이상의 성능을 나타내었다. 따라서 제안한 다중해상도 NTSS-3 Level 알고리즘이 탐색점과 스피드 업 대비 PSNR 우수함을 나타내었다.

  • PDF

제한된 서브블록을 이용한 고속 움직임 추정 알고리즘 (Fast Motion Estimation Algorithm Using Limited Sub-blocks)

  • 김성희;오정수
    • 한국통신학회논문지
    • /
    • 제31권3C
    • /
    • pp.258-263
    • /
    • 2006
  • 정합 블록의 모든 화소가 블록 정합에 동등하게 기여하지 않고, 정합 오차는 영상 복잡도의 영향을 크게 받는다. 이런 사실을 근거로 본 논문에서 영상의 복잡도에 의해 선택되는 일부 서브블록만을 이용한 고속 움직임 추정 알고리즘을 제한한다. 제안된 알고리즘은 정합 블록을 16개의 서브블록으로 나누고, 각 서브블록의 영상 복잡도를 계산하고, 일부 복잡한 서브블록만을 사용하여 부분 블록 정합을 수행하여 움직임 벡터를 검출한다. 시뮬레이션 결과는 제안된 알고리즘이 기존 탐색 알고리즘과 비교하여 무시할 수 있을 정도의 화질 저하를 야기하지만 상당한 계산량을 줄여주는 것을 보여준다.

A COMPLEXITY-REDUCED INTERPOLATION ALGORITHM FOR SOFT-DECISION DECODING OF REED-SOLOMON CODES

  • Lee, Kwankyu
    • Journal of applied mathematics & informatics
    • /
    • 제31권5_6호
    • /
    • pp.785-794
    • /
    • 2013
  • Soon after Lee and O'Sullivan proposed a new interpolation algorithm for algebraic soft-decision decoding of Reed-Solomon codes, there have been some attempts to apply a coordinate transformation technique to the new algorithm, with a remarkable complexity reducing effect. In this paper, a conceptually simple way of applying the transformation technique to the interpolation algorithm is proposed.

A fast running FIR Filter structure reducing computational complexity

  • Lee, Jae-Kyun;Lee, Chae-Wook
    • 한국정보기술응용학회:학술대회논문집
    • /
    • 한국정보기술응용학회 2005년도 6th 2005 International Conference on Computers, Communications and System
    • /
    • pp.45-48
    • /
    • 2005
  • In this paper, we propose a new fast running FIR filter structure that improves the convergence speed of adaptive signal processing and reduces the computational complexity. The proposed filter is applied to wavelet based adaptive algorithm. Actually we compared the performance of the proposed algorithm with other algorithm using computer simulation of adaptive noise canceler based on synthesis speech. As the result, We know the proposed algorithm is prefer than the existent algorithm.

  • PDF

DISTRIBUTED ALGORITHMS SOLVING THE UPDATING PROBLEMS

  • Park, Jung-Ho;Park, Yoon-Young;Choi, Sung-Hee
    • Journal of applied mathematics & informatics
    • /
    • 제9권2호
    • /
    • pp.607-620
    • /
    • 2002
  • In this paper, we consider the updating problems to reconstruct the biconnected-components and to reconstruct the weighted shortest path in response to the topology change of the network. We propose two distributed algorithms. The first algorithm solves the updating problem that reconstructs the biconnected-components after the several processors and links are added and deleted. Its bit complexity is O((n'+a+d)log n'), its message complexity is O(n'+a+d), the ideal time complexity is O(n'), and the space complexity is O(e long n+e' log n'). The second algorithm solves the updating problem that reconstructs the weighted shortest path. Its message complexity and ideal-time complexity are $O(u^2+a+n')$ respectively.

Low-Complexity Triple-Error-Correcting Parallel BCH Decoder

  • Yeon, Jaewoong;Yang, Seung-Jun;Kim, Cheolho;Lee, Hanho
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제13권5호
    • /
    • pp.465-472
    • /
    • 2013
  • This paper presents a low-complexity triple-error-correcting parallel Bose-Chaudhuri-Hocquenghem (BCH) decoder architecture and its efficient design techniques. A novel modified step-by-step (m-SBS) decoding algorithm, which significantly reduces computational complexity, is proposed for the parallel BCH decoder. In addition, a determinant calculator and a error locator are proposed to reduce hardware complexity. Specifically, a sharing syndrome factor calculator and a self-error detection scheme are proposed. The multi-channel multi-parallel BCH decoder using the proposed m-SBS algorithm and design techniques have considerably less hardware complexity and latency than those using a conventional algorithms. For a 16-channel 4-parallel (1020, 990) BCH decoder over GF($2^{12}$), the proposed design can lead to a reduction in complexity of at least 23 % compared to conventional architecttures.

주파수 오프셋과 위상 잡음이 있는 OFDM 시스템에서 PNFS 알고리즘 간소화를 통한 복잡도 개선 (A Complexity Reduced PNFS Algorithm for the OFDM System with Frequency Offset and Phase Noise)

  • 김도훈;유흥균
    • 한국전자파학회논문지
    • /
    • 제23권4호
    • /
    • pp.499-506
    • /
    • 2012
  • 본 논문에서는 OFDM 시스템에서 성능 열화의 요인인 위상 잡음과 주파수 오프셋의 영향을 분석하고, 복잡도 측면에서 개선된 PNFS(Phase Noise and Frequency offset Suppression) 알고리즘을 제안한다. OFDM 시스템에서는 위상 잡음과 주파수 오프셋, 도플러 효과와 같은 ICI 성분에 의해 영향을 많이 받게 된다. 특히 이와 같은 성분들을 보상하기 위해서는 복잡도가 높은 계산을 통하여 처리하게 되어 기저 대역에서 부담이 증가하게 된다. 따라서 복잡도를 줄이면서 ICI 성분을 보상할 수 있는 PNFS 알고리즘을 제안한다. 기존의 PNFS 알고리즘에서 성능 변화가 미미한 파라미터의 계산을 근사화하여 복잡도를 줄이는 방법을 제시하고, 기존의 PNFS 알고리즘과 계산량을 비교하여 개선된 PNFS 알고리즘의 복잡도를 비교한다. 개선된 PNFS 알고리즘의 성능을 비교 분석하고 시뮬레이션을 통하여 검증한다.

Computationally Efficient Lattice Reduction Aided Detection for MIMO-OFDM Systems under Correlated Fading Channels

  • Liu, Wei;Choi, Kwonhue;Liu, Huaping
    • ETRI Journal
    • /
    • 제34권4호
    • /
    • pp.503-510
    • /
    • 2012
  • We analyze the relationship between channel coherence bandwidth and two complexity-reduced lattice reduction aided detection (LRAD) algorithms for multiple-input multiple-output (MIMO) orthogonal frequency division multiplexing (OFDM) systems in correlated fading channels. In both the adaptive LR algorithm and the fixed interval LR algorithm, we exploit the inherent feature of unimodular transformation matrix P that remains the same for the adjacent highly correlated subcarriers. Complexity simulations demonstrate that the adaptive LR algorithm could eliminate up to approximately 90 percent of the multiplications and 95 percent of the divisions of the brute-force LR algorithm with large coherence bandwidth. The results also show that the adaptive algorithm with both optimum and globally suboptimum initial interval settings could significantly reduce the LR complexity, compared with the brute-force LR and fixed interval LR algorithms, while maintaining the system performance.