• 제목/요약/키워드: Image synthesis

검색결과 444건 처리시간 0.024초

360˚ VR 실사 영상과 3D Computer Graphic 영상 합성 편집에 관한 연구 (Study on Compositing Editing of 360˚ VR Actual Video and 3D Computer Graphic Video)

  • 이랑구;정진헌
    • 디지털융복합연구
    • /
    • 제17권4호
    • /
    • pp.255-260
    • /
    • 2019
  • 연구는 $360^{\circ}$ 동영상과 3D 그래픽의 효율적인 합성 방법에 관한 연구이다. 먼저, 이안식 일체형 $360^{\circ}$ 카메라로 촬영한 영상을 스티칭하고, 영상에서 카메라 및 사물의 위치값을 추출하였다. 그리고 추출한 위치값의 데이터를 3D 프로그램으로 불러와 3D 오브젝트를 생성하고, 자연스러운 합성을 위한 방법에 관하여 연구하였다. 그 결과 $360^{\circ}$ 동영상과 3D 그래픽의 자연스러운 합성을 위한 방법으로 렌더링 요소와 렌더링 기법을 도출할 수 있었다. 첫째, 렌더링 요소로는 3D 오브젝트의 위치와 재질, 조명과 그림자가 있었고, 둘째, 렌더링 기법으로는 실사 기반 렌더링 기법의 필요성을 찾을 수 있었다. 본 연구 과정 및 결과를 통해 $360^{\circ}$ 동영상과 3D 그래픽의 자연스러운 합성에 관한 방법을 제시함으로써, $360^{\circ}$ 동영상 및 VR 영상 콘텐츠의 연구와 제작 분야에 도움이 될 것으로 기대한다.

Hair and Fur Synthesizer via ConvNet Using Strand Geometry Images

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권5호
    • /
    • pp.85-92
    • /
    • 2022
  • 본 논문에서는 라인 형태인 가닥(Strand) 지오메트리 이미지와 합성곱 신경망(Convolutional Neural Network, ConvNet 혹은 CNN)을 이용하여 저해상도 헤어 및 털 시뮬레이션을 고해상도로 노이즈 없이 표현할 수 있는 기법을 제안한다. 저해상도와 고해상도 데이터 간의 쌍은 물리 기반 시뮬레이션을 통해 얻을 수 있으며, 이렇게 얻어진 데이터를 이용하여 저해상도-고해상도 데이터 쌍을 설정한다. 학습할 때 사용되는 데이터는 헤어 가닥 형태의 위치를 지오메트리 이미지로 변환하여 사용한다. 본 논문에서 제안하는 헤어 및 털 네트워크는 저해상도 이미지를 고해상도 이미지로 업스케일링(Upscaling)시키는 이미지 합성기를 위해 사용된다. 테스트 결과로 얻어진 고해상도 지오메트리 이미지가 고해상도 헤어로 다시 변환되면, 하나의 매핑 함수로 표현하기 어려운 헤어의 찰랑거리는(Elastic) 움직임을 잘 표현할 수 있다. 합성 결과에 대한 성능으로 이전 물리 기반 시뮬레이션보다 빠른 성능을 보였으며, 복잡한 수치해석을 몰라도 쉽게 실행이 가능하다.

SliM 이미지 프로세서 칩 설계 및 구현 (Design and implementation of the SliM image processor chip)

  • 옹수환;선우명훈
    • 전자공학회논문지A
    • /
    • 제33A권10호
    • /
    • pp.186-194
    • /
    • 1996
  • The SliM (sliding memory plane) array processor has been proposed to alleviate disadvantages of existing mesh-connected SIMD(single instruction stream- multiple data streams) array processors, such as the inter-PE(processing element) communication overhead, the data I/O overhead and complicated interconnections. This paper presents the deisgn and implementation of SliM image processor ASIC (application specific integrated circuit) chip consisting of mesh connected 5 X 5 PE. The PE architecture implemented here is quite different from the originally proposed PE. We have performed the front-end design, such as VHDL (VHSIC hardware description language)modeling, logic synthesis and simulation, and have doen the back-end design procedure. The SliM ASIC chip used the VTI 0.8$\mu$m standard cell library (v8r4.4) has 55,255 gates and twenty-five 128 X 9 bit SRAM modules. The chip has the 326.71 X 313.24mil$^{2}$ die size and is packed using the 144 pin MQFP. The chip operates perfectly at 25 MHz and gives 625 MIPS. For performance evaluation, we developed parallel algorithms and the performance results showed improvement compared with existing image processors.

  • PDF

Q 인자의 조절이 가능한 이산 웨이브렛 변환을 이용한 디지털 영상처리 (Digital Image Processing Using Tunable Q-factor Discrete Wavelet Transformation)

  • 신종홍
    • 디지털산업정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.237-247
    • /
    • 2014
  • This paper describes a 2D discrete-time wavelet transform for which the Q-factor is easily specified. Hence, the transform can be tuned according to the oscillatory behavior of the image signal to which it is applied. The tunable Q-factor wavelet transform (TQWT) is a fully-discrete wavelet transform for which the Q-factor, Q, of the underlying wavelet and the asymptotic redundancy (over-sampling rate), r, of the transform are easily and independently specified. In particular, the specified parameters Q and r can be real-valued. Therefore, by tuning Q, the oscillatory behavior of the wavelet can be chosen to match the oscillatory behavior of the signal of interest, so as to enhance the sparsity of a sparse signal representation. The TQWT is well suited to fast algorithms for sparsity-based inverse problems because it is a Parseval frame, easily invertible, and can be efficiently implemented. The TQWT can also be used as an easily-invertible discrete approximation of the continuous wavelet transform. The transform is based on a real valued scaling factor (dilation-factor) and is implemented using a perfect reconstruction over-sampled filter bank with real-valued sampling factors. The transform is parameterized by its Q-factor and its oversampling rate (redundancy), with modest oversampling rates (e. g. 3-4 times overcomplete) being sufficient for the analysis/synthesis functions to be well localized. Therefore, This method services good performance in image processing fields.

다해상도 EPI 방식에 의한 다시점 입체 영상 합성 (Multi-Viewpoint Stereo Image Synthesis Using Multi-Resolution EPI Method)

  • 장흥엽;이제호;권용무;김상국;박상희
    • 방송공학회논문지
    • /
    • 제2권1호
    • /
    • pp.16-23
    • /
    • 1997
  • HDTV의 다음세대 TV로서 주목받고 있는 3D TV의 구현을 위한 주요 기술중 보는이의 시점에 해당하는 영상을 보여주는 다시점 입체영상표시가 중요한 연구대상으로 대두되고 있다. 본 논문에서는 다시점 입체영상표시를 구현하기 위한 기존방법들의 문제점으로 지적되는 많은 연산량 문제를 해결할 수 있는 새로운 알고리즘을 제안한다. 다시점 영상모음을 영상 공간축에서 을로 다운 샘플링(down sampling )하여 다해상도 영상 피라미드를 만들고, 이를 바탕으로 저해상도 EPI에서부터 대응점들을 탐색하고, 그에 해당하는 상위 해상도에서는 하위 해상도에서 탐색한 결과를 확인·교정해 가는 방법을 사용하므로써, 기존의 방법보다 고속처리가 가능하며, 잡음에도 강인한 기법을 제안한다.

  • PDF

Few-Shot Image Synthesis using Noise-Based Deep Conditional Generative Adversarial Nets

  • Msiska, Finlyson Mwadambo;Hassan, Ammar Ul;Choi, Jaeyoung;Yoo, Jaewon
    • 스마트미디어저널
    • /
    • 제10권1호
    • /
    • pp.79-87
    • /
    • 2021
  • In recent years research on automatic font generation with machine learning mainly focus on using transformation-based methods, in comparison, generative model-based methods of font generation have received less attention. Transformation-based methods learn a mapping of the transformations from an existing input to a target. This makes them ambiguous because in some cases a single input reference may correspond to multiple possible outputs. In this work, we focus on font generation using the generative model-based methods which learn the buildup of the characters from noise-to-image. We propose a novel way to train a conditional generative deep neural model so that we can achieve font style control on the generated font images. Our research demonstrates how to generate new font images conditioned on both character class labels and character style labels when using the generative model-based methods. We achieve this by introducing a modified generator network which is given inputs noise, character class, and style, which help us to calculate losses separately for the character class labels and character style labels. We show that adding the character style vector on top of the character class vector separately gives the model rich information about the font and enables us to explicitly specify not only the character class but also the character style that we want the model to generate.

AdaMM-DepthNet: Unsupervised Adaptive Depth Estimation Guided by Min and Max Depth Priors for Monocular Images

  • ;김문철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 추계학술대회
    • /
    • pp.252-255
    • /
    • 2020
  • Unsupervised deep learning methods have shown impressive results for the challenging monocular depth estimation task, a field of study that has gained attention in recent years. A common approach for this task is to train a deep convolutional neural network (DCNN) via an image synthesis sub-task, where additional views are utilized during training to minimize a photometric reconstruction error. Previous unsupervised depth estimation networks are trained within a fixed depth estimation range, irrespective of its possible range for a given image, leading to suboptimal estimates. To overcome this suboptimal limitation, we first propose an unsupervised adaptive depth estimation method guided by minimum and maximum (min-max) depth priors for a given input image. The incorporation of min-max depth priors can drastically reduce the depth estimation complexity and produce depth estimates with higher accuracy. Moreover, we propose a novel network architecture for adaptive depth estimation, called the AdaMM-DepthNet, which adopts the min-max depth estimation in its front side. Intensive experimental results demonstrate that the adaptive depth estimation can significantly boost up the accuracy with a fewer number of parameters over the conventional approaches with a fixed minimum and maximum depth range.

  • PDF

디지털디자인에서 이미지의 變換 (Image Conversion in Digital Design)

  • 김훈
    • 디자인학연구
    • /
    • 제15권1호
    • /
    • pp.309-318
    • /
    • 2002
  • 시각디자인(visual communication design)에서 이미지의 표현은 전통적으로 여러 표현매체(Media)의 매커니컬한 부분과 깊은 관계가 있다. 특히 디지털방식을 이용한 이미지 표현에서는 회화적인 표한 도면작성, 광학적인 표현, 영상이미지 등 다양한 형식의 이미지들이 디지털데이터로 전환됨으로써 이미지의 변환이 쉬워졌다. 한편 디지털형식으로 각종 표현매체가 통합됨으로써 여러 형식의 시각이미지들간의 함성이 활성화됨으로써 이미지표현의 범위가 다양해지고 있으며, 나아가 기존의 평면적인 표현에서 3D, 4D 등 다양한 차원의(dimensional) 표현들이 디지털디자인의 이미지표현에서 종합되고 있는 경향을 보이고 있다. 또한 이렇게 여러 이미지형식들이 종합되는 과정에서 부분적이거나 전체적인 이미지의 변환이 자주 발생하고 있으며, 그 변환은 크게 조형적인 측면과 기술적인 측면의 두 가지 요인으로 요약된다. 본 논문에서는 조형적 측면으로 기존의 회화적 표현과 사진술로 대표되는 광학적 표한 그리고 컴퓨터그래픽에서의 이미지 변환 원리를 유형화하고 기술적인 측면으로 데이터형식에 따른 이미지의 변환과 디멘션에 따른 세부적인 내용을 기술하였다. 이 중 특히 기술적이고 정량적인 측정이 필요한 내용에 대해서는 컴퓨터를 이용한 간단한 시뮬레이션을 통해 객관적이고 실증적인 결과를 요약하였고, 연구내용의 세부적인 결과를 실제 시각디자인 작업에서 활용하는 방안을 사안별로 제시했다.

  • PDF

The Importance of Filter Integrity Test to Ensure Sterility of Radiophamaceuticals for Using PET Image

  • Cho, Yong-Hyun;Park, Jun-Hyung;Hwang, Ki-Young;Kim, Hyung-Woo;Lee, Hong-Jae;Kim, Hyun-Ju
    • 핵의학기술
    • /
    • 제12권1호
    • /
    • pp.74-77
    • /
    • 2008
  • The radiopharmaceuticals are routinely injected to blood vessel for acquiring PET image. For this reason, It is imperative that they undergo strict quality control measures. Especially, Sterility test is more important than any other quality control procedures. According to the FDA guideline, It requires filter integrity test used in the processing of sterile solutions. Among several methods, we can decide to use bubble point test. We usually use vented GS-filters (Millipore co., USA) which are sterilizinggrade (0.22 um pore size) and are placed upper site on product vial. After the synthesis of $^{18}F$-FDG, solutions wet the membrane in filter and then go into the product vial. By all synthesis steps have finished, we can observe the presence of the bubbles in the product vial. Since we have started this study, we have never found any bubbles in the product vial. Because the maximum pressure intensity of the filter which has set by manufacturer is up to 5 bars, but helium gas pressure is up to 1 bar in our module system. So, we can make 5 bars pressure using helium gas bombe and increase pressure up to 5 bars step by step. However, it does not happen to anything in vial.

  • PDF

다시점 영상 시스템을 위한 얼굴 추적 (Face Tracking for Multi-view Display System)

  • 한충신;장세훈;배진우;유지상
    • 한국통신학회논문지
    • /
    • 제30권2C호
    • /
    • pp.16-24
    • /
    • 2005
  • 본 논문에서는 관찰자의 시점에 적응적인 다시점 영상 합성 시스템을 위한 얼굴 추적 기법을 제안한다. depth 카메라를 이용하여 텍스쳐 영상과 깊이 정보를 획득한 후, 회전(rotation)과 이동(translation) 등 기하학적인 변환을 이용하여 관찰자의 위치를 고려한 다시점 영상을 생성할 수 있다. 관찰 시점의 위치와 각도에 의한 입체감(motion parallex cue)을 제공하기 위하여 주 관찰자의 얼굴을 추적하는 기법을 제안한다. 제안된 기법에서는 모니터에 설치된 얼굴 획득용 카메라로부터 얻은 영상에서 얼굴 색상의 통계학적 특성과 변형적 형판(template)을 이용하여, 실시간으로 초기에 설정된 주요 관찰자(dominant face)의 얼굴영역을 추적하게 된다. 실험 결과 복잡한 배경 하에서도 얼굴 영역의 위치를 성공적으로 검출 및 추적하여 관찰자 시점에 해당하는 3차원 입체 영상을 디스플레이 할 수 있었다.