• Title/Summary/Keyword: Convolutional

검색결과 2,162건 처리시간 0.022초

Turbo Product Codes Based on Convolutional Codes

  • Gazi, Orhan;Yilmaz, Ali Ozgur
    • ETRI Journal
    • /
    • 제28권4호
    • /
    • pp.453-460
    • /
    • 2006
  • In this article, we introduce a new class of product codes based on convolutional codes, called convolutional product codes. The structure of product codes enables parallel decoding, which can significantly increase decoder speed in practice. The use of convolutional codes in a product code setting makes it possible to use the vast knowledge base for convolutional codes as well as their flexibility in fast parallel decoders. Just as in turbo codes, interleaving turns out to be critical for the performance of convolutional product codes. The practical decoding advantages over serially-concatenated convolutional codes are emphasized.

  • PDF

Optimum Convolutional Error Correction Codes for FQPSK-B Signals

  • Park, Hyung-Chul
    • 한국통신학회논문지
    • /
    • 제29권5C호
    • /
    • pp.611-617
    • /
    • 2004
  • The optimum convolutional error correction codes for recently standardized Feher-patented quadrature phase-shift keying (FQPSK-B) modulation are proposed. We utilize the continuous phase modulation characteristics of FQPSK-B signals for calculating the minimum Euclidean distance of convolutional coded FQPSK-B signal. It is shown that the Euclidean distance between two FQPSK-B signals is proportional to the Hamming distance between two binary data sequence. Utilizing this characteristic, we show that the convolutional codes with optimum free Hamming distance is the optimum convolutional codes for FQPSK-B signals.

The Construction and Viterbi Decoding of New (2k, k, l) Convolutional Codes

  • Peng, Wanquan;Zhang, Chengchang
    • Journal of Information Processing Systems
    • /
    • 제10권1호
    • /
    • pp.69-80
    • /
    • 2014
  • The free distance of (n, k, l) convolutional codes has some connection with the memory length, which depends on not only l but also on k. To efficiently obtain a large memory length, we have constructed a new class of (2k, k, l) convolutional codes by (2k, k) block codes and (2, 1, l) convolutional codes, and its encoder and generation function are also given in this paper. With the help of some matrix modules, we designed a single structure Viterbi decoder with a parallel capability, obtained a unified and efficient decoding model for (2k, k, l) convolutional codes, and then give a description of the decoding process in detail. By observing the survivor path memory in a matrix viewer, and testing the role of the max module, we implemented a simulation with (2k, k, l) convolutional codes. The results show that many of them are better than conventional (2, 1, l) convolutional codes.

Deep Learning을 위한 GPGPU 기반 Convolution 가속기 구현 (An Implementation of a Convolutional Accelerator based on a GPGPU for a Deep Learning)

  • 전희경;이광엽;김치용
    • 전기전자학회논문지
    • /
    • 제20권3호
    • /
    • pp.303-306
    • /
    • 2016
  • 본 논문에서는 GPGPU를 활용하여 Convolutional neural network의 가속화 방법을 제안한다. Convolutional neural network는 이미지의 특징 값을 학습하여 분류하는 neural network의 일종으로 대량의 데이터를 학습해야하는 영상 처리에 적합하다. 기존의 Convolutional neural network의 convolution layer는 다수의 곱셈 연산을 필요로 하여 임베디드 환경에서 실시간으로 동작하기에 어려움이 있다. 본 논문에서는 이러한 단점을 해결하기 위하여 winograd convolution 연산을 통하여 곱셈 연산을 줄이고 GPGPU의 SIMT 구조를 활용하여 convolution 연산을 병렬 처리한다. 실험은 ModelSim, TestDrive를 사용하여 진행하였고 실험 결과 기존의 convolution 연산보다 처리 시간이 약 17% 개선되었다.

CUDA를 이용한 Convolutional Neural Network의 구현 및 속도 비교 (Development and Speed Comparison of Convolutional Neural Network Using CUDA)

  • 기철민;조태훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.335-338
    • /
    • 2017
  • 현재 인공지능과 딥 러닝이 사회적인 이슈로 떠오르고 있는 추세이며, 다양한 분야에 이 기술들을 응용하고 있다. 인공지능 분야의 여러 알고리즘들 중에서 각광받는 방법 중 하나는 Convolutional Neural Network이다. Convolutional Neural Network는 일반적인 Neural Network 방법에 Convolution 연산을 하여 Feature를 추출하는 Convolution Layer를 추가한 형태이다. Convolutional Neural Network를 적은 양의 데이터에서 이용하거나, Layer의 구조가 복잡하지 않은 경우에는 학습시간이 길지 않아 속도에 크게 신경 쓰지 않아도 되지만, 학습 데이터의 크기가 크고, Layer의 구조가 복잡할수록 학습 시간이 상당히 오래 걸린다. 이로 인해 GPU를 이용하여 병렬처리를 하는 방법을 많이 사용하는데, 본 논문에서는 CUDA를 이용한 Convolutional Neural Network를 구현하였으며, CPU를 이용한 방법보다 학습 속도가 빨라지고 큰 데이터를 학습 시키는데 더욱 효율적으로 진행하도록 한다.

  • PDF

Runlength Limited Codes based on Convolutional Codes

  • Kim, Jeong-Goo
    • 한국통신학회논문지
    • /
    • 제26권8A호
    • /
    • pp.1437-1440
    • /
    • 2001
  • We present a modification method for runlength limited codes based on convolutional codes. This method is based on cosets of convolutional codes and can be applied to any convolutional code without degradation of error control performance of the codes. The upper bound of maximum zero and/or one runlength are provided. Some convolutional codes which have the shortest maximum runlength for given coding parameters are tabulated.

  • PDF

Linear Unequal Error Protection Codes based on Terminated Convolutional Codes

  • Bredtmann, Oliver;Czylwik, Andreas
    • Journal of Communications and Networks
    • /
    • 제17권1호
    • /
    • pp.12-20
    • /
    • 2015
  • Convolutional codes which are terminated by direct truncation (DT) and zero tail termination provide unequal error protection. When DT terminated convolutional codes are used to encode short messages, they have interesting error protection properties. Such codes match the significance of the output bits of common quantizers and therefore lead to a low mean square error (MSE) when they are used to encode quantizer outputs which are transmitted via a noisy digital communication system. A code construction method that allows adapting the code to the channel is introduced, which is based on time-varying convolutional codes. We can show by simulations that DT terminated convolutional codes lead to a lower MSE than standard block codes for all channel conditions. Furthermore, we develop an MSE approximation which is based on an upper bound on the error probability per information bit. By means of this MSE approximation, we compare the convolutional codes to linear unequal error protection code construction methods from the literature for code dimensions which are relevant in analog to digital conversion systems. In numerous situations, the DT terminated convolutional codes have the lowest MSE among all codes.

Nonbinary Convolutional Codes and Modified M-FSK Detectors for Power-Line Communications Channel

  • Ouahada, Khmaies
    • Journal of Communications and Networks
    • /
    • 제16권3호
    • /
    • pp.270-279
    • /
    • 2014
  • The Viterbi decoding algorithm, which provides maximum - likelihood decoding, is currently considered the most widely used technique for the decoding of codes having a state description, including the class of linear error-correcting convolutional codes. Two classes of nonbinary convolutional codes are presented. Distance preserving mapping convolutional codes and M-ary convolutional codes are designed, respectively, from the distance-preserving mappings technique and the implementation of the conventional convolutional codes in Galois fields of order higher than two. We also investigated the performance of these codes when combined with a multiple frequency-shift keying (M-FSK) modulation scheme to correct narrowband interference (NBI) in power-line communications channel. Themodification of certain detectors of the M-FSK demodulator to refine the selection and the detection at the decoder is also presented. M-FSK detectors used in our simulations are discussed, and their chosen values are justified. Interesting and promising obtained results have shown a very strong link between the designed codes and the selected detector for M-FSK modulation. An important improvement in gain for certain values of the modified detectors was also observed. The paper also shows that the newly designed codes outperform the conventional convolutional codes in a NBI environment.

CUDA를 이용한 Convolutional Neural Network의 효율적인 구현 (Efficient Implementation of Convolutional Neural Network Using CUDA)

  • 기철민;조태훈
    • 한국정보통신학회논문지
    • /
    • 제21권6호
    • /
    • pp.1143-1148
    • /
    • 2017
  • 현재 인공지능과 딥 러닝이 사회적인 이슈로 떠오르고 있는 추세이며, 다양한 분야에 이 기술들을 응용하고 있다. 인공지능 분야의 여러 알고리즘들 중에서 각광받는 방법 중 하나는 Convolutional Neural Network이다. Convolutional Neural Network를 적은 양의 데이터에서 이용하거나, Layer의 구조가 복잡하지 않은 경우에는 학습시간이 길지 않아 속도에 크게 신경 쓰지 않아도 되지만, 학습 데이터의 크기가 크고, Layer의 구조가 복잡할수록 학습시간이 상당히 오래 걸린다. 이로 인해 GPU를 이용하여 병렬처리를 하는 방법을 많이 사용하는데, 본 논문에서는 CUDA를 이용한 Convolutional Neural Network를 구현하였으며, 비교에 사용한 Framework/Program들 보다 학습속도가 빨라지고 큰 데이터를 학습 시키는데 더욱 효율적으로 진행하도록 한다.

Convolutional Neural Network 기반의 악성코드 이미지화를 통한 패밀리 분류 (Visualized Malware Classification Based-on Convolutional Neural Network)

  • 석선희;김호원
    • 정보보호학회논문지
    • /
    • 제26권1호
    • /
    • pp.197-208
    • /
    • 2016
  • 본 논문에서는 악성코드를 실행시키지 않고 패밀리를 분류하는 방법으로 악성 코드 파일을 8-bit gray-scale 이미지로 시각화 하고 이미지 인식분야에서 널리 쓰이고 있는 convolutional neural network를 통해 악성코드를 분류해내는 기법을 제안한다. 9개의 악성코드 패밀리로 분류해 내는 실험의 Top-1,2 예측 정확도는 각각 96.2%, 98.7%을 기록하였고, 27개의 패밀리를 분류하는 실험의 경우 Top-1 예측 정확도는 82.9%, Top-2는 89%로 악성코드 패밀리를 분류할 수 있다.