• 제목/요약/키워드: versatile video coding

검색결과 80건 처리시간 0.022초

다목적 비디오 부호화를 위한 고속 어파인 움직임 예측 방법 (Fast Affine Motion Estimation Method for Versatile Video Coding)

  • 정승원;전동산
    • 한국산업융합학회 논문집
    • /
    • 제25권4_2호
    • /
    • pp.707-714
    • /
    • 2022
  • Versatile Video Coding (VVC) is the most recent video coding standard, which had been developed by Joint Video Expert Team (JVET). It can improve significant coding performance compared to the previous standard, namely High Efficiency Video Coding (HEVC). Although VVC can achieve the powerful coding performance, it requires the tremendous computational complexity of VVC encoder. Especially, affine motion compensation (AMC) was adopted the block-based 4-parameter or 6-parameter affine prediction to overcome the limit of translational motion model while VVC require the cost of higher encoding complexity. In this paper, we proposed the early termination of AMC that determines whether the affine motion estimation for AMC is performed or not. Experimental results showed that the proposed method reduced the encoding complexity of affine motion estimation (AME) up to 16% compared to the VVC Test Model 17 (VTM17).

다목적 비디오 부/복호화를 위한 다층 퍼셉트론 기반 삼항 트리 분할 결정 방법 (Multi-Layer Perceptron Based Ternary Tree Partitioning Decision Method for Versatile Video Coding)

  • 이태식;전동산
    • 한국멀티미디어학회논문지
    • /
    • 제25권6호
    • /
    • pp.783-792
    • /
    • 2022
  • Versatile Video Coding (VVC) is the latest video coding standard, which had been developed by the Joint Video Experts Team (JVET) of ITU-T Video Coding Experts Group (VCEG) and ISO/IEC Moving Picture Experts Group (MPEG) in 2020. Although VVC can provide powerful coding performance, it requires tremendous computational complexity to determine the optimal block structures during the encoding process. In this paper, we propose a fast ternary tree decision method using two neural networks with 7 nodes as input vector based on the multi-layer perceptron structure, names STH-NN and STV-NN. As a training result of neural network, the STH-NN and STV-NN achieved accuracies of 85% and 91%, respectively. Experimental results show that the proposed method reduces the encoding complexity up to 25% with unnoticeable coding loss compared to the VVC test model (VTM).

Versatile Video Coding을 활용한 Video based Point Cloud Compression 방법 (Video based Point Cloud Compression with Versatile Video Coding)

  • 권대혁;한희지;최해철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.497-499
    • /
    • 2020
  • 포인트 클라우드는 다수의 3D 포인터를 사용한 3D 데이터의 표현 방식 중 하나이며, 멀티미디어 획득 및 처리 기술의 발전에 따라 다양한 분야에서 주목하고 있는 기술이다. 특히 포인트 클라우드는 3D 데이터를 정밀하게 수집하고 표현할 수 있는 장점을 가진다. 하지만 포인트 클라우드는 방대한 양의 데이터를 가지고 있어 효율적인 압축이 필수적이다. 이에 따라 국제 표준화 단체인 Moving Picture Experts Group에서는 포인트 클라우드 데이터의 효율적인 압축을 위하여 Video based Point Cloud Compression(V-PCC)와 Geometry based Point Cloud Coding에 대한 표준을 제정하고 있다. 이 중 V-PCC는 기존 High Efficiency Video Coding(HEVC) 표준을 활용하여 포인트 클라우드를 압축하여 활용성이 높다는 장점이 있다. 본 논문에서는 V-PCC에 사용하는 HEVC 코덱을 2020년 7월 표준화 완료될 예정인 Versatile Video Coding으로 대체하여 V-PCC의 압축 성능을 더 개선할 수 있음을 보인다.

  • PDF

A Review on Motion Estimation and Compensation for Versatile Video Coding Technology (VVC)

  • Choi, Young-Ju;Kim, Byung-Gyu
    • 한국멀티미디어학회논문지
    • /
    • 제22권7호
    • /
    • pp.770-779
    • /
    • 2019
  • Video coding technologies are progressively becoming more efficient and complex. The Versatile Video Coding (VVC) is a new state-of-the art video compression standard that is going to be a standard, as the next generation of High Efficiency Video Coding (HEVC) standard. To explore the future video coding technologies beyond the HEVC, numerous efficient methods have been adopted by the Joint Video Exploration Team (JVET). Since then, the next generation video coding standard named as VVC and its software model called VVC Test Model (VTM) have emerged. In this paper, several important coding features for motion estimation and motion compensation in the VVC standard is introduced and analyzed in terms of the performance. Improved coding tools introduced for ME and MC in VVC, can achieve much better and good balance between coding efficiency and coding complexity compared with the HEVC.

CNN-based Fast Split Mode Decision Algorithm for Versatile Video Coding (VVC) Inter Prediction

  • Yeo, Woon-Ha;Kim, Byung-Gyu
    • Journal of Multimedia Information System
    • /
    • 제8권3호
    • /
    • pp.147-158
    • /
    • 2021
  • Versatile Video Coding (VVC) is the latest video coding standard developed by Joint Video Exploration Team (JVET). In VVC, the quadtree plus multi-type tree (QT+MTT) structure of coding unit (CU) partition is adopted, and its computational complexity is considerably high due to the brute-force search for recursive rate-distortion (RD) optimization. In this paper, we aim to reduce the time complexity of inter-picture prediction mode since the inter prediction accounts for a large portion of the total encoding time. The problem can be defined as classifying the split mode of each CU. To classify the split mode effectively, a novel convolutional neural network (CNN) called multi-level tree (MLT-CNN) architecture is introduced. For boosting classification performance, we utilize additional information including inter-picture information while training the CNN. The overall algorithm including the MLT-CNN inference process is implemented on VVC Test Model (VTM) 11.0. The CUs of size 128×128 can be the inputs of the CNN. The sequences are encoded at the random access (RA) configuration with five QP values {22, 27, 32, 37, 42}. The experimental results show that the proposed algorithm can reduce the computational complexity by 11.53% on average, and 26.14% for the maximum with an average 1.01% of the increase in Bjøntegaard delta bit rate (BDBR). Especially, the proposed method shows higher performance on the sequences of the A and B classes, reducing 9.81%~26.14% of encoding time with 0.95%~3.28% of the BDBR increase.

360 비디오의 SSP를 위한 기하학적 패딩 (Geometry Padding for Segmented Sphere Projection (SSP) in 360 Video)

  • 김현호;명상진;윤용욱;김재곤
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.25-31
    • /
    • 2019
  • 360 비디오는 VR 응용의 확산과 함께 몰입형 미디어로 주목받고 있으며, JVET(Joint Video Experts Team)에서 post-HEVC로 진행중인 VVC(Versatile Video Coding) 표준화에서 360 비디오 부호화도 함께 고려되고 있다. 360 비디오 부호화를 위하여 2D로 투영된 영상에는 투영 면(face) 경계의 불연속성과 비활성 영역이 존재할 수 있으며 이는 부호화 효율을 저하시키고 시각적 아티팩트(visual artifact)를 발생시킬 수 있다. 본 논문에서는 2D 투영 기법 중 SSP(Segmented Sphere Projection)에서의 이러한 불연속성과 비활성 영역을 줄이는 효율적인 기하학적 패딩(padding) 기법을 제시한다. 실험결과, 제안 기법은 복사에 의한 패딩을 사용하는 기존 SSP 대비 미미한 부호화 효율 저하는 있지만 주관적 화질이 향상된 것을 확인할 수 있었다.

CNN 기반의 VVC 인-루프 필터 설계 (CNN Based In-loop Filter in Versatile Video Coding (VVC))

  • 문현철;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 하계학술대회
    • /
    • pp.270-271
    • /
    • 2018
  • 본 논문에서는 새로이 시작된 비디오 압축 표준인 VVC(Versatile Video Coding)의 인-루프(in-loop) 필터링을 위한 CNN 구조를 제안한다. 제안하는 CNN 구조는 복호화된 영상을 입력으로 하고 원본 영상과 복호화된 영상의 오차를 손실함수로 사용하여 학습을 진행한다. 또한, 비디오 부호화에서의 다양한 크기의 CU(Coding Unit)를 고려한 다양한 크기의 컨볼루션 필터를 사용하여 특징을 추출하는 구조에 기반하고 있다. 실험을 통하여 제안한 CNN 기반의 필터링이 VVC 의 시험모델인 VTM(VVC Test Model)의 인-루프 필터링의 성능을 개선할 수 있음을 확인하였다.

  • PDF

Suboptimal video coding for machines method based on selective activation of in-loop filter

  • Ayoung Kim;Eun-Vin An;Soon-heung Jung;Hyon-Gon Choo;Jeongil Seo;Kwang-deok Seo
    • ETRI Journal
    • /
    • 제46권3호
    • /
    • pp.538-549
    • /
    • 2024
  • A conventional codec aims to increase the compression efficiency for transmission and storage while maintaining video quality. However, as the number of platforms using machine vision rapidly increases, a codec that increases the compression efficiency and maintains the accuracy of machine vision tasks must be devised. Hence, the Moving Picture Experts Group created a standardization process for video coding for machines (VCM) to reduce bitrates while maintaining the accuracy of machine vision tasks. In particular, in-loop filters have been developed for improving the subjective quality and machine vision task accuracy. However, the high computational complexity of in-loop filters limits the development of a high-performance VCM architecture. We analyze the effect of an in-loop filter on the VCM performance and propose a suboptimal VCM method based on the selective activation of in-loop filters. The proposed method reduces the computation time for video coding by approximately 5% when using the enhanced compression model and 2% when employing a Versatile Video Coding test model while maintaining the machine vision accuracy and compression efficiency of the VCM architecture.

MPEG 몰입형 비디오 기반 6DoF 영상 스트리밍 성능 분석 (Performance Analysis of 6DoF Video Streaming Based on MPEG Immersive Video)

  • 정종범;이순빈;김인애;류은석
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.773-793
    • /
    • 2022
  • 다수의 고품질 몰입형 영상 전송을 통해 가상 현실에서 six degrees of freedom(6DoF)를 지원하기 위해 the moving picture experts group (MPEG) immersive video (MIV) 압축 표준이 설립되었다. MIV는 비트율과 연산 복잡도 간 상충관계를 고려하여 1) 시점 간 연관성 제거 또는 2) 대표 시점을 선택하여 전송하는 2가지 압축 방식을 제공한다. 본 논문은 전술한 두 가지 방식에 대해 high-efficiency video coding (HEVC), versatile video coding (VVC) 기반 성능 분석 결과를 입력 영상 위치에 합성한 가상 영상 및 사용자 시점 영상 중심으로 제시한다.

곱셈 연산을 고려한 고속 역변환 방법 (Fast Inverse Transform Considering Multiplications)

  • 송현주;이영렬
    • 방송공학회논문지
    • /
    • 제28권1호
    • /
    • pp.100-108
    • /
    • 2023
  • 하이브리드 블록 기반 비디오 압축에서 변환 부호화는 공간 영역의 잔차 신호를 주파수 영역으로 변환하여 낮은 주파수 대역에 에너지를 집중시켜 이후 엔트로피 코딩 과정에서 높은 압축률을 달성할 수 있게 한다. 최신 비디오 압축 표준인 VVC(Versatile Video Coding)는 DCT-2(Discrete Cosine Transform type 2), DST-7(Discrete Sine Transform type 7), DCT-8(Discrete Cosine Transform type 8)를 사용하여 주변환을 수행한다. 본 논문에서는 DCT-2, DST-7, DCT-8이 모두 선형 변환임을 고려하여, 선형 변환의 선형성을 이용하여 역변환 시 곱셈 연산량을 줄이는 역변환 방법을 제안한다. 제안하는 역변환 방법은 VVC의 참조 소프트웨어인 VVC Test Model-8.2 (VTM-8.2) 대비 비트율의 증가 없이 부호화 시간과 복호화 시간이 AI(All Intra)에서 평균 26%, 15%, RA(Randon Access)에서 평균 4%, 10% 감소하였다.