• Title/Summary/Keyword: Immersive Media

Search Result 235, Processing Time 0.024 seconds

Implementing VVC Tile Extractor for 360-degree Video Streaming Using Motion-Constrained Tile Set

  • Jeong, Jong-Beom;Lee, Soonbin;Kim, Inae;Lee, Sangsoon;Ryu, Eun-Seok
    • Journal of Broadcast Engineering
    • /
    • v.25 no.7
    • /
    • pp.1073-1080
    • /
    • 2020
  • 360-degree video streaming technologies have been widely developed to provide immersive virtual reality (VR) experiences. However, high computational power and bandwidth are required to transmit and render high-quality 360-degree video through a head-mounted display (HMD). One way to overcome this problem is by transmitting high-quality viewport areas. This paper therefore proposes a motion-constrained tile set (MCTS)-based tile extractor for versatile video coding (VVC). The proposed extractor extracts high-quality viewport tiles, which are simulcasted with low-quality whole video to respond to unexpected movements by the user. The experimental results demonstrate a savings of 24.81% in the bjøntegaard delta rate (BD-rate) saving for the luma peak signal-to-noise ratio (PSNR) compared to the rate obtained using a VVC anchor without tiled streaming.

Pipeline Design for Efficient Visual Effects Production

  • Hwang, Min Sik;Lee, Hyunseok
    • Journal of Multimedia Information System
    • /
    • v.9 no.3
    • /
    • pp.219-226
    • /
    • 2022
  • The advancement of realistic visual effects technology provides increasingly immersive experiences and consumer satisfaction with content. The explosion and destruction effects in live-action films and animations are some of the most frequently used visual effects, but they are relatively difficult to execute, so it is challenging to make them look realistic. This study tested a method of effectively realizing computer-generated explosions and destruction. Experiments for this study are as follows: first, the interlink according to density accumulation of the fluid; second, the interlink according to the temperature accumulation of the fluid; and third, the interlink according to the distance between the fluid and the involved objects. This study was conducted to identify an optimal solution for producing computer-generated explosions and destruction.

Augmented Reality Service Based on Object Pose Prediction Using PnP Algorithm

  • Kim, In-Seon;Jung, Tae-Won;Jung, Kye-Dong
    • International Journal of Advanced Culture Technology
    • /
    • v.9 no.4
    • /
    • pp.295-301
    • /
    • 2021
  • Digital media technology is gradually developing with the development of convergence quaternary industrial technology and mobile devices. The combination of deep learning and augmented reality can provide more convenient and lively services through the interaction of 3D virtual images with the real world. We combine deep learning-based pose prediction with augmented reality technology. We predict the eight vertices of the bounding box of the object in the image. Using the predicted eight vertices(x,y), eight vertices(x,y,z) of 3D mesh, and the intrinsic parameter of the smartphone camera, we compute the external parameters of the camera through the PnP algorithm. We calculate the distance to the object and the degree of rotation of the object using the external parameter and apply to AR content. Our method provides services in a web environment, making it highly accessible to users and easy to maintain the system. As we provide augmented reality services using consumers' smartphone cameras, we can apply them to various business fields.

A case study to standardize odor metadata obtained from coffee aroma based on E-nose using ISO/IEC 23005 (MPEG-V) for olfactory-enhanced multimedia

  • Choi, Jang-Sik;Byun, Hyung-Gi
    • Journal of Sensor Science and Technology
    • /
    • v.30 no.4
    • /
    • pp.204-209
    • /
    • 2021
  • Immersive multimedia comprising metadata for five senses can provide user experience by stimulating memory and sensation. In the case of olfactory-enhanced multimedia, a computer-generated smell is combined with additional media content to create a richer and/or more realistic experience for the user. Although several studies have been conducted on olfactory-enhanced multimedia using e-nose and olfactory display, their practical applications have been severely restricted owing to the absence of a related standard. This paper proposes a method to standardize odor metadata obtained from an e-nose system, which has been particularly used to acquire data from different coffee aromas. Subsequently, the data were transferred to an odor display applicable for olfactory-enhanced multimedia using the ISO/IEC 23005 (MPEG-V) data template.

A study on the measurement of changes in impulse response due to obstacles (장애물에 의한 충격응답 변화 실측에 대한 연구)

  • Jae-hyoun Yoo;Tae Jin Lee
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.22-25
    • /
    • 2022
  • 본 논문에서는 인공적인 가상 환경에서 사실적인 충격응답을 제공할 수 있는 방법을 모색하기 위한 첫 단계로서 실제 청취 공간에서 충격응답을 획득하고 장애물이 존재할 때 그 충격응답이 어떻게 변화하는지 살펴보기 위하여 충격응답 변화 실측에 대한 실험 결과를 제시한다. 실험은 일상적인 공간으로서 한국전자통신연구원의 회의실과 휴게실에서 수행하였으며, 실험 결과 장애물의 존재에 따라 그리고 청취 위치에 따라 주파수 영역에서 차이점이 발생하는 것을 확인할 수 있었다. 향후 흡음률 등 장애물에 대한 물리적 정보를 조사, 분석하고 보다 더 다양한 공간과 위치에서 장애물에 대한 충격응답의 변화로부터, MPEG-I Immersive Audio 등의 애플리케이션에서 사실적인 공간감을 제공하기 위한 인공적인 충격응답을 가공 방법을 제안할 수 있을 것으로 기대한다.

  • PDF

Deblocking Filtering in TMIV for Atlases in Basic and Additional Views (TMIV 소프트웨어에서의 기본 시점과 추가 시점에 대한 디블로킹 필터의 성능 비교)

  • Yeo, Eun;Kang, Jewon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.46-48
    • /
    • 2020
  • HEVC (High Efficiency Video Coding)의 In-Loop 필터 중 하나인 디블로킹 필터는 예측과 변환 블록 주변의 균일하지 않은 잡음을 제거하기 위해 사용된다. 영상을 복원할 때 텍스쳐 정보의 경우, 디블로킹 필터로 눈에 보이는 잡음을 제거하는 데 유리하지만 깊이 정보는 깊이를 예측하여 합성하는 데 사용되므로 디블로킹 필터를 적용하면 합성에 방해가 될 수 있다. 이에 본 논문은 TMIV (Test Model 6 for MPEG Immersive Video) 인코더를 거쳐 나온 기본 시점과 추가 시점의 텍스쳐와 깊이 영상에 디블로킹 필터를 적용하여 BD-Rate의 향상 정도와 인지 화질적 관점에서의 화질 개선 여부를 실험을 통해 검증한다.

  • PDF

Light Field Lenslet Video Compression using Screen Content Coding tool (스크린 콘텐츠 코딩 툴을 이용한 라이트필드 렌즈렛 영상 부호화)

  • Lee, Soonbin;Jeong, Jong-Beom;Kim, Inae;Ryu, Eun-Seok
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.49-52
    • /
    • 2020
  • MPEG-I(Immersive) 그룹에서는 몰입형 미디어 영상처리 표준화의 일환으로 마이크로렌즈를 통한 다시점 영상 처리 기술인 Dense Light Field에 대한 성능 탐색을 진행하고 있다. 본 논문에서는 MPEG-I에서 정의된 라이트 필드 시퀀스에 대해 versatile video codec(VVC)에 대한 압축 성능 분석을 시행하였으며, 또한 렌즈렛(Lenslet) 형태의 특정적인 이미지 정보를 효율적으로 압축하기 위한 스크린 콘텐츠 코딩 툴의 효율 비교를 진행하였다. 또한 렌즈렛 영상에서의 화면 내 블록 카피(intra block copy) 기법이 선택되는 비율을 확인하고, 화면 내 블록 카피 기법을 통해 렌즈렛 영상이 효율적으로 압축될 수 있음을 보였다.

  • PDF

Content Aware Patch Level Geometry Scaling for TMIV (TMIV 를 위한 콘텐츠 적응형 패치 레벨 기하정보 스케일링)

  • Kakli, Muhammad Umer;Jeong, Jun Young;Lee, Gwangsoon;Seo, Jeongil
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.73-74
    • /
    • 2021
  • This paper presents a scheme to downscale the patches in geometry atlas based upon its contents for MPEG Immersive Video (MIV). In proposed scheme, the geometric contents of a patch is analyzed across the intra period, and a decision is made, whether to downscale a patch or not. The patches containing homogeneous information is downscaled by half, while the patches having salient information about the object such as edges are retained. Experimental results show that the bitrate saving is achieved by incorporating the patch level downscaling.

  • PDF

Mask R-CNN based Priority Object Image Stitching (Mask R-CNN을 활용한 Priority Object 영상 스티칭)

  • Rhee, Seong Bae;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.47-50
    • /
    • 2020
  • 최근 Panorama와 360도 영상이 대표되는 몰입형(Immersive) 미디어 콘텐츠의 사용이 증가하고 있다. 몰입형 영상 콘텐츠는 사용자에게 현장감을 제공해야 하지만, 촬영 카메라 간의 시차(Parallax)로 인해 영상 콘텐츠에서 시차 왜곡이 발생할 수 있고, 이는 사용자의 콘텐츠 몰입을 제한하기 때문에 해당 영상 콘텐츠의 제작 기술인 영상 스티칭의 높은 정확도가 요구되고 있다. 지금까지 스티칭 영상의 시차 왜곡을 줄이기 위하여 다중 호모그래피 추정 방법과 Seam Optimization 방법이 제안되었지만, 영상 내 사물 배치에 따라 기술 적용이 제한될 수 있다. 이에 본 논문에서는 Mask R-CNN을 활용하여 사물을 세그먼트화하고, 사물의 종류에 따라 각각 다른 가중치 적용을 통해 시차 왜곡을 방지하며, 영상 내 사물의 배치에 따라 시차 왜곡이 발생할 상황에서는 사용자의 인지 중요도가 낮은 사물로 시차 왜곡을 유도하는 영상 스티칭 방법을 제안한다.

  • PDF

A Depth Mapping Method for 3DoF+ Video Coding (3DoF+ 비디오 부호화를 위한 깊이 매핑 기법)

  • Park, Ji-Hun;Lee, Jun-Sung;Park, Dohyeon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.295-296
    • /
    • 2020
  • 3DoF+ 비디오 부호화 표준을 개발하고 있는 MPEG-I 비주얼 그룹은 표준화 과정에서 참조 SW 코덱인 TMIV(Test Model for Immersive Video)를 개발하고 있다. TMIV 는 제한된 공간에서 동시에 여러 위치에서 획득한 뷰(view)의 텍스처(texture) 비디오와 깊이(depth) 비디오를 효율적으로 압축하여 임의 시점의 뷰 렌더링(rendering)을 제공한다. TMIV 에서 수행되는 깊이 비디오의 비트 심도 스케일링 및 압축은 깊이 정보의 손실을 발생하며 이는 렌더링(rendering)된 임의 시점 비디오의 화질 저하를 야기한다. 본 논문에서는 보다 효율적인 깊이 비디오 압축을 위한 히스토그램 등화(histogram equalization) 기반의 구간별(piece-wise) 깊이 매핑 기법을 제안한다. 실험결과 제안기법은 자연 영상(natural sequence)의 End-to-End 부호화 성능에서 평균적으로 3.1%의 비트율 절감이 있음을 확인하였다.

  • PDF