• 제목/요약/키워드: video composition

검색결과 106건 처리시간 0.011초

형태 정합을 이용한 포아송 동영상 합성 (Poisson Video Composition Using Shape Matching)

  • 허경용;최훈;김지홍
    • 한국정보통신학회논문지
    • /
    • 제22권4호
    • /
    • pp.617-623
    • /
    • 2018
  • 본 논문에서는 형태 정합 및 포아송 방정식을 기반으로 객체와 배경과의 이음매가 없는 효율적인 동영상 합성 기법을 제안한다. 동영상 합성 기법은 영상 분할 과정과 영상 조합 과정으로 구성된다. 영상 분할 과정에서는 먼저 첫번째 프레임에 대해 사용자가 3 영역 지도를 설정한 후, 그랩 컷(grab cut) 알고리즘을 수행한다. 그리고 객체와 배경의 색상, 밝기, 텍스쳐 등이 유사할 경우 영상 분할의 성능이 감소될 수 있음을 감안하여, 현재 프레임과 이전 프레임 객체들 간의 형태 정합을 통해 현재 프레임에서 영상 분할된 객체를 보정한다. 영상 조합 과정에서는 포아송 방정식을 이용하여 객체와 목표 동영상의 배경이 서로 이음매 없이 조합되도록 하며, 또한 사용자가 설정한 움직임 경로에 따라 객체를 배치한다. 모의실험을 통해 제안된 방법이 합성된 동영상의 자연성 뿐만 아니라 수행 시간 면에서 우수함을 알 수 있었다.

Multi-View Video Processing: IVR, Graphics Composition, and Viewer

  • Kwon, Jun-Sup;Hwang, Won-Young;Choi, Chang-Yeol;Chang, Eun-Young;Hur, Nam-Ho;Kim, Jin-Woong;Kim, Man-Bae
    • 방송공학회논문지
    • /
    • 제12권4호
    • /
    • pp.333-341
    • /
    • 2007
  • Multi-view video has recently gained much attraction from academic and commercial fields because it can deliver the immersive viewing of natural scenes. This paper presents multi-view video processing being composed of intermediate view reconstruction (IVR), graphics composition, and multi-view video viewer. First we generate virtual views between multi-view cameras using depth and texture images of the input videos. Then we mix graphic objects to the generated view images. The multi-view video viewer is developed to examine the reconstructed images and composite images. As well, it can provide users with some special effects of multi-view video. We present experimental results that validate our proposed method and show that graphic objects could become the inalienable part of the multi-view video.

CG와 동영상의 지적합성 (Intelligent Composition of CG and Dynamic Scene)

  • 박종일;정경훈;박경세;송재극
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1995년도 학술대회
    • /
    • pp.77-81
    • /
    • 1995
  • Video composition is to integrate multiple image materials into one scene. It considerably enhances the degree of freedom in producing various scenes. However, we need to adjust the viewing point sand the image planes of image planes of image materials for high quality video composition. In this paper, were propose an intelligent video composition technique concentrating on the composition of CG and real scene. We first model the camera system. The projection is assumed to be perspective and the camera motion is assumed to be 3D rotational and 3D translational. Then, we automatically extract camera parameters comprising the camera model from real scene by a dedicated algorithm. After that, CG scene is generated according to the camera parameters of the real scene. Finally the two are composed into one scene. Experimental results justify the validity of the proposed method.

Automatic Object Segmentation and Background Composition for Interactive Video Communications over Mobile Phones

  • Kim, Daehee;Oh, Jahwan;Jeon, Jieun;Lee, Junghyun
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제1권3호
    • /
    • pp.125-132
    • /
    • 2012
  • This paper proposes an automatic object segmentation and background composition method for video communication over consumer mobile phones. The object regions were extracted based on the motion and color variance of the first two frames. To combine the motion and variance information, the Euclidean distance between the motion boundary pixel and the neighboring color variance edge pixels was calculated, and the nearest edge pixel was labeled to the object boundary. The labeling results were refined using the morphology for a more accurate and natural-looking boundary. The grow-cut segmentation algorithm begins in the expanded label map, where the inner and outer boundary belongs to the foreground and background, respectively. The segmented object region and a new background image stored a priori in the mobile phone was then composed. In the background composition process, the background motion was measured using the optical-flow, and the final result was synthesized by accurately locating the object region according to the motion information. This study can be considered an extended, improved version of the existing background composition algorithm by considering motion information in a video. The proposed segmentation algorithm reduces the computational complexity significantly by choosing the minimum resolution at each segmentation step. The experimental results showed that the proposed algorithm can generate a fast, accurate and natural-looking background composition.

  • PDF

개방형 정보통신망 기반의 서비스 컴포지션을 위한 컴포지션 관리자 모델링 (A Functional Modeling of Composition Manager for Service Composition Based on TINA)

  • 신영석;임선환
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.344-351
    • /
    • 2004
  • 정보통신 기술의 발전으로 응용 서비스는 멀티미디어화 되어 가며, 짧은 라이프 싸이클을 보이고 있다. 통신망 사업자와 서비스 제공자는 신속한 서비스 제공과 통신망의 효율적인 유지보수를 위해 TMN (Telecommunication Management Network)과 개방형 정보통신망 (Open Networking Architecture, TINA)을 도입하고 있다. 본 논문에서는 이러한 추세에 따라 TINA-C에서 제안하는 소프트웨어 인프라 구조에서 개발된 개별 서비스를 통합하여 신규 서비스를 생성하는 기능 구조를 모델링하고 이를 구현하였다. TINA 규격에 따른 화상회의와 VOD 서비스를 대상으로 신규 비디오 프리젠테이션 서비스를 컴포지션 하였으며, 컴포지션 객체(CompPA, asCompUAP, CompUSM, SC)를 설계하였다.

스토리보드에 따라 장면요소를 자동 조합하는 주제모델링 기반 온라인 비디오 매쉬업 시스템 개발 (Development of Online Video Mash-up System based on Automatic Scene Elements Composition using Storyboard)

  • 박종빈;김경원;정종진;임태범
    • 방송공학회논문지
    • /
    • 제21권4호
    • /
    • pp.525-537
    • /
    • 2016
  • 본 논문은 제한된 개수의 장면요소들을 주어진 스토리보드에 따라 자동으로 선택 및 배치하여 다양한 목적과 의도를 반영하는 동영상을 생성하는 방법을 제안한다. 동영상을 제작하려는 사용자가 사진이나 동영상을 온라인 시스템 상에 업로드 하면 미리 확보된 메타정보들을 활용해서 장면요소에 해당하는 장면템플릿들을 선택 및 배치하고, 내부 리소스를 수정하며, 메타정보에 부합하는 필터효과나 배경음악을 포함하도록 한다. 이는 입력 사진들을 슬라이드 재생방식으로 구성하는 비디오 콜라주 기법이나 템플릿 기반 리소스 치환방법들이 지닌 단점들을 보완하면서 장점들을 더욱 강화할 수 있는 방법이라 할 수 있다. 제안 방법은 마케팅 및 홍보전략·의도 등을 이용하여 홍보 동영상을 쉽게 제작하는 온라인 서비스 시스템에 적용하여 실 서비스 활용 가능성을 검증하였다.

동영상 합성을 위한 혼합 블랜딩 (Hybrid Blending for Video Composition)

  • 김지홍;허경용
    • 한국정보통신학회논문지
    • /
    • 제24권2호
    • /
    • pp.231-237
    • /
    • 2020
  • 본 논문에서는 포아송 방정식을 기반으로 하는 영상 합성에 있어서 합성된 영상의 자연성을 향상시키기 위한 효율적인 동영상 혼합 블랜딩 기법을 제안한다. 영상 블랜딩 과정에서는 영상 합성의 목적에 따라 포아송 블랜딩과 알파 브랜딩 등 다양한 방법이 사용되고 있다. 본 논문에서 제안하는 혼합 블랜딩 방식은 포아송 블랜딩과 알파 블랜딩의 장점들을 조합함으로써 합성 영상에서 이음매가 없고 또한 객체의 색상 왜곡이 감소되는 특징을 갖는다. 먼저 소스 영상의 객체를 포아송 블랜딩 방법으로 합성한 후, 블랜딩 된 객체와 원래의 객체의 색차를 비교한다. 그리고 색차값이 임계값 이상인 경우, 소스 영상의 객체에 대해 알파 블랜딩을 수행하고 이를 포아송 블랜딩 된 객체와 가중치를 부여하여 합산한다. 모의실험과 분석을 통해 제안된 방법이 포아송 블랜딩과 알파 블랜딩에 비해 합성 영역의 자연성이 우수할 뿐 아니라 요구되는 계산량도 비교적 적다는 것을 볼 수 있다.

영상합성을 위한 영상으로부터의 견실한 카메라피라미터 확정법 (Robust Estimation of Camera Parameters from Video Signals for Video Composition)

  • 박종일;이충웅
    • 전자공학회논문지B
    • /
    • 제32B권10호
    • /
    • pp.1305-1313
    • /
    • 1995
  • In this paper, we propose a robust estimation of camera parameters from image sequence for high quality video composition. We first establish correspondence of feature points between consecutive image fields. After the establishment, we formulate a nonlinear least-square data fitting problem. When the image sequence contains moving objects, and/or when the correspondence establishment is not successful for some feature points, we get bad observations, outliers. They should be properly eliminated for a good estimation. Thus, we propose an iterative algorithm for rejecting the outliers and fitting the camera parameters alternatively. We show the validity of the proposed method using computer generated data sets and real image sequeces.

  • PDF

Seamless Video Switching System for Service Compatible 3DTV Broadcasting

  • Kim, Sangjin;Jeon, Taehyun
    • ETRI Journal
    • /
    • 제38권5호
    • /
    • pp.847-857
    • /
    • 2016
  • Broadcasting services such as multi/single channel HDTV and 3DTV/2DTV use a multi-channel encoder that changes the bitrate and composition of the video service depending on the time. However, this type of multi-channel encoder could cause a longer latency owing to the variable bitrate and relatively bigger size of the buffers, which results in the same delay as in 3DTV even for a conventional DTV service. On the other hand, systems built based on separate encoders, each of which is optimized for the target service, might not have such latency problems. Nevertheless, there might be a distortion problem in the image and sound at the time of a switchover between two encoders with different output bitrates and group of picture structures. This paper proposes a system that can realize a seamless video service conversion using two different video encoders optimized for each video service. An overall functional description of the video service change control server, which is a main control block for the proposed system, is also provided. The experiment results confirm the seamless switchover and reduced broadcasting latency of DTV services compared with a broadcasting system composed of a multi-channel encoder system.

Extensible Hierarchical Method of Detecting Interactive Actions for Video Understanding

  • Moon, Jinyoung;Jin, Junho;Kwon, Yongjin;Kang, Kyuchang;Park, Jongyoul;Park, Kyoung
    • ETRI Journal
    • /
    • 제39권4호
    • /
    • pp.502-513
    • /
    • 2017
  • For video understanding, namely analyzing who did what in a video, actions along with objects are primary elements. Most studies on actions have handled recognition problems for a well-trimmed video and focused on enhancing their classification performance. However, action detection, including localization as well as recognition, is required because, in general, actions intersect in time and space. In addition, most studies have not considered extensibility for a newly added action that has been previously trained. Therefore, proposed in this paper is an extensible hierarchical method for detecting generic actions, which combine object movements and spatial relations between two objects, and inherited actions, which are determined by the related objects through an ontology and rule based methodology. The hierarchical design of the method enables it to detect any interactive actions based on the spatial relations between two objects. The method using object information achieves an F-measure of 90.27%. Moreover, this paper describes the extensibility of the method for a new action contained in a video from a video domain that is different from the dataset used.