• Title/Summary/Keyword: 가상시점 합성

검색결과 52건 처리시간 0.026초

비지도 학습 깊이 예측 모델을 이용한 가상시점 합성 (Virtual view synthesis using unsupervised learning depth estimation model)

  • 송민기;양지희;황동호;박구만
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.155-157
    • /
    • 2019
  • 본 논문에서는 기존의 DERS, VSRS를 이용한 가상시점 합성이 가지고 있는 문제점을 해결하기 위해 비지도 학습 방식의 학습 모델을 이용하여 가상시점 합성에 적용하는 방식을 제안한다. 제안한 방식에서는 기존의 DERS와 달리 Disparity의 탐색범위를 지정하지 않고 Depth의 예측이 가능하며 단안의 영상에서 Depth를 예측하기 때문에 가상시점 합성 시 더 넓은 시점을 합성 할 수 있다. 또한 기존 방식은 Depth와 합성 영상을 각각 처리해야하지만 제안하는 방식은 한 번에 작업이 이루어지며, GPU를 기반으로 구현하였기 때문에 기존의 합성 방식 보다 처리 속도가 우수하다.

  • PDF

CGH를 위한 가상시점 깊이영상 합성 시스템 (Virtual View-point Depth Image Synthesis System for CGH)

  • 김택범;고민수;유지상
    • 한국정보통신학회논문지
    • /
    • 제16권7호
    • /
    • pp.1477-1486
    • /
    • 2012
  • 본 논문에서는 가상시점 깊이영상 생성 기법을 이용한 다양한 시점의 CGH(computer generated hologram) 생성 시스템을 제안한다. 제안한 시스템에서는 먼저 TOF(time of flight) 깊이 카메라를 이용하여 신뢰도 높은 기준시점 깊이영상을 획득하고 카메라 보정 과정을 통해 기준시점 카메라들의 카메라 파라미터를 추출한다. 가상시점 카메라의 위치가 정의되면 기준시점 카메라와의 거리와 위치를 고려하여 최적의 기준시점 카메라들을 선택한다. 가상시점 카메라와 가장 가까운 기준시점 카메라를 주 기준시점으로 결정하고 가상시점 깊이영상을 생성한다. 주 기준시점 카메라와 위치가 반대인 기준시점 카메라를 보조 기준시점으로 선택하여 가상시점 깊이영상을 생성한다. 주 기준시점을 통해 생성된 가상시점 깊이영상에 나타나는 가려짐 영역을 보조 기준시점으로 생성된 가상시점 깊이영상으로부터 찾아 보상한다. 보상이 되지 않고 남은 홀영역은 주변값 중 가장 작은 값으로 채워 최종 가상시점 깊이영상을 생성한다. 최종 가상시점 깊이 영상을 이용하여 CGH를 생성한다. 실험을 통해 기존의 기법보다 제안하는 가상시점 깊이영상 합성 시스템의 성능이 우수함을 확인하였다.

2차원/3차원 자유시점 비디오 재생을 위한 가상시점 합성시스템 (Virtual View Rendering for 2D/3D Freeview Video Generation)

  • 민동보;손광훈
    • 대한전자공학회논문지SP
    • /
    • 제45권4호
    • /
    • pp.22-31
    • /
    • 2008
  • 3DTV를 위한 핵심 기술 중의 하나인 다시점 영상에서 변이를 추정하고 가상시점을 합성하는 새로운 방식을 제안한다. 다시점 영상에서 변이를 효율적이고 정확하게 추정하기 위해 준 N-시점 & N-깊이 구조를 제안한다. 이 구조는 이웃한 영상의 정보를 이용하여 변이 추정 시 발생하는 계산상의 중복을 줄인다. 제안 방식은 사용자에게 2D와 3D 자유시점을 제공하며, 사용자는 자유시점 비디오의 모드를 선택할 수 있다. 실험 결과는 제안 방식이 정확한 변이 지도를 제공하며, 합성된 영상이 사용자에게 자연스러운 자유시점 비디오를 제공한다는 것을 보여준다.

CNN 을 이용한 전방위 비디오 합성 시점의 화질 개선 알고리즘 (CNN-based Denoising Algorithm for Synthesized Views in 6 Degree-of-Freedom Videos)

  • 박현수;강제원
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.218-221
    • /
    • 2019
  • 본 논문은 최근 MPEG-I 에서 논의되고 있는 전방위 6 자유도 영상의 가상시점 합성의 기존 공개 소프트웨어의 문제점 해결방안을 제안한다. 참조시점을 사용하여 합성된 가상시점의 영상을 대상으로 묶음 조정(bundle adjustment) 개념의 딥 러닝을 적용하여 영상 간 시공간적 품질 차이를 낮춘다. 실험에 따르면 중간시점 영상 합성 후 같은 시간적 특성을 같은 묶음을 MF-CNN (Multi-Frame Convolutional Neural Networks)에 적용함으로써 단순 VVS2.0 의 합성 결과 대비 평균 공간적으로 0.34dB, 시간적으로 0.81dB의 성능 향상을 제공하였다.

  • PDF

HEVC 근접 무손실 깊이 영상 부호화를 위한 향상된 CABAC 설계 (Improved CABAC Design for Near Lossless Depth Coding in HEVC)

  • 최정아;호요성
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2011년도 추계학술대회
    • /
    • pp.36-37
    • /
    • 2011
  • 깊이 영상은 가상 시점 영상을 합성할 때 사용되는 3차원 거리 정보로 깊이 영상 기반 렌더링에서 가상 시점을 합성할 때 사용한다. 따라서, 깊이 영상 부호화에서는 부호화 효율 못지않게 합성 영상의 화질이 중요하다. 깊이 영상의 화질은 합성된 가상 시점 영상의 화질에 큰 영향을 미친다. 따라서 고화질 깊이 영상이 필요한 경우, 부호화 손실이 적은 무손실 부호화를 사용한다. 하지만, 이와 같은 무손실 부호화 방법은 복호를 통해 원래의 깊이 영상을 그대로 복원할 수 있지만, 압축률이 낮다는 단점이 있다. 본 논문에서는 복호된 영상의 화질과 부호화 비트의 균형을 모두 고려하기 위해 근접 무손실 HEVC(high efficiency video coding)와 향상된 CABAC(context-based adaptive bnary arithmetic coding)을 이용한 새로운 깊이 영상 부호화 방법을 제안한다. 실험을 통해 제안한 방법이 합성된 가상 시점 영상의 화질 손실 없이, 기존의 무손실 및 근접 무손실 방법보다 더 나은 부호화 성능을 제공함을 알 수 있었다.

  • PDF

다시점 영상의 가상시점 합성을 위한 깊이 및 수퍼픽셀 기반 가중치 블렌딩 방법 (Depth and Superpixel Based Weighted Blending for Virtual View Synthesis)

  • 윤준영;신홍창;박종일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.231-233
    • /
    • 2019
  • 본 논문에서는 다시점 영상과 스테레오 매칭을 수행하여 얻은 깊이 정보를 통해 가상시점을 합성할 때 적용되는 블렌딩 기법을 제안한다. 다시점 영상에서 스테레오 매칭으로 얻을 수 있는 깊이정보는 물체와 배경의 경계부분에서 큰 오차를 갖는다. 이러한 이유로 원본 시점들의 영상을 깊이정보를 통해 특정 가상시점으로 워핑할 때 물체의 경계 부분에 배경의 화소가 일부 포함되는 문제가 발생한다. 이 문제는 워핑된 영상들을 블렌딩하여 하나로 합성 시 영상의 품질에 영향을 주는 요인이 된다. 본 논문에서 제안하는 방법은 깊이정보와 함께 영상의 수퍼픽셀 분할에서 얻은 정보를 이용하여 블렌딩 대상이 되는 영상에 화소 단위로 가중치를 부여하여 해당 문제의 영향을 완화한다.

  • PDF

가상 시점 영상 합성을 위한 방향성 고려 홀 채움 방법 (Consider the directional hole filling method for virtual view point synthesis)

  • 문지훈;호요성
    • 스마트미디어저널
    • /
    • 제3권4호
    • /
    • pp.28-34
    • /
    • 2014
  • 최근 깊이 영상 기반 합성 방법을 이용한 가상시점 합성 방법이 3차원 영상의 적용 분야에서 많이 사용되고 있다. 가상 시점 영상은 기존에 알고 있는 영상과 이와 관련된 깊이 영상 정보를 이용하여 카메라로 촬영 하지 않은 가상시점 영상을 생성하게 된다. 하지만 깊이 영상 기반 합성 방법을 이용해 가상시점 영상을 생성할 경우, 깊이 영상을 기반으로 합성하기 때문에 이미지 워핑 과정에서 폐색 영역이 발생하게 된다. 이러한 폐색 영역을 제거하기 위해 지금까지 다양한 홀 채움 방법들이 제안되어 왔다. 동일 색상영역 검색, 수평방향 보간 방법, 수평방향 보외 방법 그리고 다양한 인페인팅 방법들이 홀 채움 방법들로 제안되었다. 하지만 이러한 방법들을 사용하여 텍스쳐 영역의 홀을 제거할 경우 다른 종류의 간섭 현상이 발생하는 문제가 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 다양한 방향성을 고려한 홀 채움 방법을 새롭게 제안하여 확장된 홀 영역을 효율적으로 채우는 방법을 설명한다. 제안된 방법들은 복잡한 텍스쳐들이 있는 배경부분에서 발생하는 홀 영역을 채울 때 성능 효율성을 나타낸다. 방향성을 고려한 홀 채움 방법은 픽셀 단위로 홀 채움 영역 값을 측정하는 과정에서 홀 영역의 주변 텍스쳐 픽셀 값들을 사용하게 된다. 제안한 방법을 이용해 가상시점 영상 합성 결과 발생하는 홀 영역을 기존의 홀 채움 방법보다 보다 더 효율적으로 채울 수 있는 것을 확인할 수 있었다.

가상 변이맵 탐색과 수렴 조건 판단을 이용한 실시간 가상시점 생성 방법 (Real-time Virtual View Synthesis using Virtual Viewpoint Disparity Estimation and Convergence Check)

  • 신인용;호요성
    • 한국통신학회논문지
    • /
    • 제37권1A호
    • /
    • pp.57-63
    • /
    • 2012
  • 본 논문에서는 양안식 3차원 디스플레이 장치에 사용가능한 실시간 가상시점 영상을 생성방법을 제안한다. 제안하는 방법은 변이 탐색 (disparity estimation) 과정에서 중복되거나 불필요한 계산을 제거하기 위해, 변이맵 탐색 위치를 가상시점과 동일한 위치로 설정한다. 또한, 전역 방법을 사용한 변이맵 탐색 과정은 정확도는 높지만 복잡한 계산량이 문제이기 때문에 최적화 과정에서 변이값이 수렴하는 위치를 탐색하고 정보 갱신을 멈추는 방법을 사용하였다. 이렇게 얻어진 가상시점의 변이맵은 실제 참조가 가능한 영역인지 판단하는 수렴 조건 판단 (convergence check) 절차를 거쳐 영상을 합성한다. 영상 합성을 위한 모든 과정은 실시간 처리를 위하여 단일 명령 복수 쓰레드 (Single Instruction Multiple Threads) 구조인 그래픽 처리장치(GPU)를 활용한 프로그래밍을 통해 고속화를 이루었다. 실험 결과를 통해 제안하는 방법이 합성 영상의 화질을 유지하면서도 실시간으로 가상시점 영상을 합성한 것을 확인할 수 있었다.

MPEG-I의 6DoF를 위한 360 비디오 가상시점 합성 성능 분석 (Performance Analysis on View Synthesis of 360 Videos for Omnidirectional 6DoF in MPEG-I)

  • 김현호;김재곤
    • 방송공학회논문지
    • /
    • 제24권2호
    • /
    • pp.273-280
    • /
    • 2019
  • 360 비디오는 VR 응용의 확산과 함께 몰입형 미디어로 주목받고 있으며, MPEG-I Visual 그룹은 6 자유도(6DoF)까지의 몰입형 미디어를 제공하기 위한 표준화를 진행하고 있다. 제한된 공간내에서 전방위 6DoF를 제공하는 Omnidirectional 6DoF는 제공되는 제한된 수의 360 비디오로부터 임의의 위치에서의 뷰(view)를 제공하기 위한 가상시점 합성이 필요하다. 본 논문에서는 MPEG-I Visual 그룹에서 진행된 전방위 6DoF를 위한 합성에 대한 탐색실험의 성능 및 분석 결과를 기술한다. 즉, 합성하려는 가상시점과 합성을 위한 360 비디오의 입력시점 사이의 거리 및 입력시점의 개수 등의 다양한 실험조건에 따른 합성 성능 결과 및 분석을 제시한다.

가상 시점 영상 합성을 위한 깊이 기반 가려짐 영역 메움법 (A Depth-based Disocclusion Filling Method for Virtual Viewpoint Image Synthesis)

  • 안일구;김창익
    • 대한전자공학회논문지SP
    • /
    • 제48권6호
    • /
    • pp.48-60
    • /
    • 2011
  • 최근 3차원 영상과 자유 시점 영상에 대한 연구가 매우 활발하다. 다수의 카메라로부터 취득된 다시점 영상 사이를 가상적으로 이동하며 시청할 수 있는 자유 시점 렌더링은 다양한 분야에 적용될 수 있어 주목받는 연구주제이다. 하지만 다시점 카메라 시스템은 경제적인 비용 및 전송의 제약이 따른다. 이러한 문제를 해결하기 위한 대안으로 한 장의 텍스처 영상과 상응하는 깊이 영상을 이용하여 가상 시점을 생성하는 방법이 주목받고 있다. 가상 시점 생성 시 발생하는 문제점은 원래 시점에서는 객체에 의해 가려져 있던 영역이 가상시점에서는 보이게 된다는 것이다. 이 가려짐 영역을 자연스럽게 채우는 것은 가상 시점 렌더링의 질을 결정한다. 본 논문은 가상 시점 렌더링에서 필연적으로 발생하는 가려짐 영역을 깊이 기반 인페인팅을 이용하여 합성하는 방법을 제안한다. 텍스처 합성 기술에서 우수한 성능을 보인 패치 기반 비모수적 텍스처 합성 방법에서 중요한 요소는 어느 부분을 먼저 채울 지 우선순위를 결정하는 것과 어느 배경 영역으로 채울 지 예제를 결정하는 것이다. 본 논문에서는 헤시안(Hessian) 행렬 구조 텐서(structure tensor)를 이용해 잡음에 강건한 우선순위 설정 방법을 제안한다. 또한 홀 영역을 채울 적절한 배경 패치를 결정하는 데에 있어서는 깊이 영상을 이용해 배경영역을 알아내고 에피폴라 라인을 고려한 패치 결정 방법을 제안한다. 기존 방법들과 객관적인 비교와 주관적인 비교를 통하여 제안된 방법의 우수성을 보이고자 한다.