• 제목/요약/키워드: Transform Coding

검색결과 576건 처리시간 0.036초

VVC 의 다중 변환 선택을 고려한 신경망 기반 화면내 예측 (Neural Network-Based Intra Prediction Considering Multiple Transform Selection in Versatile Video Coding )

  • 박도현;문기화;임성창;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.8-9
    • /
    • 2022
  • 최근 VVC(Versatile Video Coding) 표준 완료 이후 JVET(Joint Video Experts Team)에서는 NNVC(Neural Network-based Video Coding) EE(Exploration Experiment)를 통하여 화면내 예측을 포함한 신경망 기반의 부호화 기술들을 탐색하고 검증하고 있다. 본 논문에서는 VVC 에 채택되어 있는 다중 변환 선택(MTS: Multiple Transform Selection)에 따라서 적절한 예측 블록을 선택할 수 있는 TDIP(Transform-Dependent Intra Prediction) 모델을 제안한다. 실험결과 제안기법은 VVC 의 AI(All Intra) 부호화 환경에서 VTM(VVC Test Model) 대비 Y, U, V 에 각각 0.87%, 0.87%, 0.99%의 BD-rate 절감의 비디오 부호화 성능 향상을 보였다.

  • PDF

혼성 예측 피라미드 호환 부호화 기법 (On the Hybrid Prediction Pyramid Compatible Coding Technique)

  • 이준서;이상욱
    • 한국통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.33-46
    • /
    • 1996
  • Inthis paper, we investigate the compatible coding technique, which receives much interest ever since the introduction of HDTV. First, attempts have been made to analyze the theoretical transform coding gains for various hierarchical decomposition techniques, namely subband, pyramid and DCT-based decomposition techniques. It is shown that the spatical domain techniques proide higher transform coding gains than the DCT-based coding technique. Secondly, we compare the performance of these spatial domain techniques, in terms of the PSNR versus various rate allocations to each layer. Based on these analyses, it is believed that the pyramid decomposition is more appropriate for the compatible coding. Also in this paper, we propose a hybrid prediction pyramid coding technique, by combining the spatio-temporal prediction in MPEG-2[3] and the adaptive MC(Motion Compensation)[1]. In the proposed coding technigue, we also employ an adaptive DCT coefficient scanning technique to exploit the direction information of the 2nd-layer signal. Through computer simulations, the proposed hybrid prediction with adaptive scanning technuque shows the PSNR improvement, by about 0.46-1.78dB at low 1st-layer rate(about 0.1bpp) over the adaptive MC[1], and by about 0.33-0.63dB at high 1st-layer rate (about 0.32-0.43bpp) over the spatio-temporal prediction[3].

  • PDF

웨이브렛 계수 특성을 이용한 점진적 영상 부호화 ((A Progressive Image Coding by Wavelet Coefficient Property))

  • 장윤업
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권9호
    • /
    • pp.1287-1294
    • /
    • 2002
  • 본 논문에서는 DWT기반의 점진적 영상부호화를 위한 알고리즘 기법을 제안해보고자 한다. DWT와 에지부분을 추출하고 확장된 EZW 알고리즘을 이용하여 기존의 Embedded Coding 보다 효과적인 부호화 방법을 설계해 보았다. 일반적으로 에지 부분은 원 영상을 복원하는데 있어 매우 중요한 역할을 하게 된다. 영상에 대해 DWT를 거치게 되면 계수들은 중요계수와 비중요계수 두가지의 그룹으로 분류할 수 있다. 본 논문에서는 에지부분이 영상에서는 중요계수처럼 나타난다는 것을 이용하였다. 특히 DWT 영상에서는 방향성에 의해서 고주파 부대역에서 이러한 특성이 그대로 나타난다는 것을 확인할 수 있다. 또한 Embedded Coding에서 중요계수처럼 영상을 복원하는데 중요한 정보들은 전송순서에서 보다 우선순위를 가지게 된다. 따라서 본 논문에서 제안하려는 시스템은 영상의 점진적 전송이 요구되는 응용분야에 효과적으로 이용될 수 있을것으로 기대할 수 있을 것이다.

  • PDF

훈련 알고리듬을 이용한 변환격자코드에 의한 영상신호 압축 (Transform Trellis Image Coding Using a Training Algorithm)

  • 김동윤
    • 대한의용생체공학회:의공학회지
    • /
    • 제15권1호
    • /
    • pp.83-88
    • /
    • 1994
  • The transform trellis code is an optimal source code as a block size and the constraint length of a shift register go to infinite for stationary Gaussian sources with the squared-error distortion measure. However to implement this code, we have to choose the finite block size and constraint length. Moreover real-world sources are inherently non stationary. To overcome these difficulties, we developed a training algorithm for the transform trellis code. The trained transform trellis code which uses the same rates to each block led to a variation in the resulting distortion from one block to another. To alleviate this non-uniformity in the encoded image, we constructed clusters from the variance of the training data and assigned different rates for each cluster.

  • PDF

Fast Binary Block Inverse Jacket Transform

  • Lee Moon-Ho;Zhang Xiao-Dong;Pokhrel Subash Shree;Choe Chang-Hui;Hwang Gi-Yean
    • Journal of electromagnetic engineering and science
    • /
    • 제6권4호
    • /
    • pp.244-252
    • /
    • 2006
  • A block Jacket transform and. its block inverse Jacket transformn have recently been reported in the paper 'Fast block inverse Jacket transform'. But the multiplication of the block Jacket transform and the corresponding block inverse Jacket transform is not equal to the identity transform, which does not conform to the mathematical rule. In this paper, new binary block Jacket transforms and the corresponding binary block inverse Jacket transforms of orders $N=2^k,\;3^k\;and\;5^k$ for integer values k are proposed and the mathematical proofs are also presented. With the aid of the Kronecker product of the lower order Jacket matrix and the identity matrix, the fast algorithms for realizing these transforms are obtained. Due to the simple inverse, fast algorithm and prime based $P^k$ order of proposed binary block inverse Jacket transform, it can be applied in communications such as space time block code design, signal processing, LDPC coding and information theory. Application of circular permutation matrix(CPM) binary low density quasi block Jacket matrix is also introduced in this paper which is useful in coding theory.

Wavelet 변환을 이용한 최적 영상 데이터 다해상도 표현 및 압축에 관한 연구 (A study on optimal Image Data Multiresolution Representation and Compression Through Wavelet Transform)

  • 강경모;정기삼;이명호
    • 대한의용생체공학회:학술대회논문집
    • /
    • 대한의용생체공학회 1994년도 추계학술대회
    • /
    • pp.31-38
    • /
    • 1994
  • This paper proposed signal decomposition and multiresolution representation through wavelet transform using wavelet orthonormal basis. And it suggested most appropriate filter for scaling function in multiresoltion representation and compared two compression method, arithmetic coding and Huffman coding. Results are as follows 1. Daub18 coefficient is most appropriate in computing time, energy compaction, image quality. 2. In case of image browsing that should be small in size and good for recognition, it is reasonable to decompose to 3 scale using pyramidal algorithm. 3. For the case of progressive transmittion where requires most grateful image reconstruction from least number of sampls or reconstruction at any target rate, I embedded the data in order of significance after scaling to 5 step. 4. Medical images such as information loss is fatal have to be compressed by lossless method. As a result from compressing 5 scaled data through arithmetic coding and Huffman coding, I obtained that arithmetic coding is better than huffman coding in processing time and compression ratio. And in case of arithmetic coding I could compress to 38% to original image data.

  • PDF

Load Balancing Based on Transform Unit Partition Information for High Efficiency Video Coding Deblocking Filter

  • Ryu, Hochan;Park, Seanae;Ryu, Eun-Kyung;Sim, Donggyu
    • ETRI Journal
    • /
    • 제39권3호
    • /
    • pp.301-309
    • /
    • 2017
  • In this paper, we propose a parallelization method for a High Efficiency Video Coding (HEVC) deblocking filter with transform unit (TU) split information. HEVC employs a deblocking filter to boost perceptual quality and coding efficiency. The deblocking filter was designed for data-level parallelism. In this paper, we demonstrate a method of distributing equal workloads to all cores or threads by anticipating the deblocking filter complexity based on the coding unit depth and TU split information. We determined that the average time saving of our proposed deblocking filter parallelization method has a speed-up factor that is 2% better than that of the uniformly distributed parallel deblocking filter, and 6% better than that of coding tree unit row distribution parallelism. In addition, we determined that the speed-up factor of our proposed deblocking filter parallelization method, in terms of percentage run-time, is up to 3.1 compared to the run-time of the HEVC test model 12.0 deblocking filter with a sequential implementation.

CR-DPCM을 이용한 HEVC 무손실 인트라 예측 방법 (CR-DPCM for Lossless Intra Prediction Method in HEVC)

  • 홍성욱;이영렬
    • 방송공학회논문지
    • /
    • 제19권3호
    • /
    • pp.307-315
    • /
    • 2014
  • 차세대 영상압축 표준인 HEVC(High Efficiency Video Coding)에 적용 가능한 무손실 인트라 예측 방법 CR-DPCM(Cross-Residual Difference Pulse Code Modulation)을 제안한다. HEVC는 공간상의 중복성을 줄이기 위해 다양한 방향의 예측을 하도록 만들어졌으며, 이를 위해 부호화 하려는 블록의 주변 화소들을 사용하고 있다. 본 논문에서 제안하는 HEVC 적용 가능한 무손실 인트라 예측 방법은, 예측을 위해 화소 단위 DPCM을 수행하면서도 잔차 변환과, 잔차 변환의 결과로 얻어지는 잔차 신호에 대해 2차로 진행하는 잔차 변환을 예측 방향에 맞추어 교차시키는 CR-DPCM 방법을 사용하며, 이는 기존 제안한 방법인 제 2차 잔차 변환(Secondary Residual Transform)보다 높은 성능 향상을 가진다. 제안하는 무손실 인트라 코딩 방식인 CR-DPCM 방법은 기존의 HEVC 표준 방법과 비교 하였을 때 bit-rate 평균 약 8.43%정도 감소시키며, JPEG2000 무손실 압축 방법과 비교해서도 높은 성능 향상을 가진다.

HEVC의 Transform Skip Mode를 위한 Rough Mode Decision 알고리즘 (A Rough Mode Decision Algorithm for Transform Skip Mode in HEVC)

  • 김영조;김재석
    • 전자공학회논문지
    • /
    • 제51권8호
    • /
    • pp.104-113
    • /
    • 2014
  • HEVC(high efficiency video coding) 표준에서 사용되는 기존의 rough mode decision(RMD) 알고리즘은 transform skip mode(TSM)와는 연관성이 낮은 DCT를 기반으로 하는 모드 선택 방법을 이용하고 있다. 따라서 기존 RMD의 결과로 구한 후보 모드가 TSM에서 사용될 때, 압축 효율이 손실되고 인코딩 시간을 낭비하게 된다. 본 논문은 HEVC에서의 TSM을 위한 새로운 RMD를 제안한다. 우리가 제안한 RMD 알고리즘은 TSM에서 최선의 모드를 선택할 확률을 높이는 새로운 비용 함수를 제안하여 코딩 효율을 향상시킨다. 또한, 제안하는 알고리즘은 새롭게 제안한 임계값을 기준으로 선택 가능성이 거의 없는 TSM의 인코딩 과정을 생략하여 인코딩 시간을 줄인다. 실험 결과 제안하는 방식은 HEVC 표준에 비해서 10%의 인코딩 시간을 줄이며 스크린 콘텐츠에 대해서 0.3%의 압축률을 향상시킨다.

DST 기반 보간 필터를 이용한 인터 코딩 (Inter Coding using DST-based Interpolation Filter)

  • 김명준;이영렬
    • 방송공학회논문지
    • /
    • 제22권3호
    • /
    • pp.321-326
    • /
    • 2017
  • HEVC 표준은 정수 화소로 표현된 신호에 DCT-II를 기반으로 하는 보간 필터를 사용하여 부화소 신호를 생성한다. 이러한 방법으로 생성된 신호는 움직임 보상 및 예측의 성능 향상을 가져온다. HEVC 표준은 부화소를 생성하기 위해서 길이가 다른 각각의 DCT 보간 필터를 사용하고 있다. 1/2-화소를 생성할 땐, 필터의 길이가 8인 DCT 기반 보간 필터를 사용하며, 1/4-화소와 3/4-화소의 경우에는 필터의 길이가 7인 DCT 기반 보간 필터를 사용한다. 본 논문에서는 DST-VII을 기반으로 하는 보간 필터를 제안하여, 움직임 보상 및 예측의 성능 향상을 가져온다. 본 논문에서 제안하는 방법은 HEVC 표준보다 BD-rate가 Random Access와 Low Delay B configurations에서 각각 0.45%와 0.5%의 성능 향상을 가져온다.