• Title/Summary/Keyword: 비디오기술

Search Result 1,666, Processing Time 0.029 seconds

Design and Implementation of Distributed Object Framework Supporting Audio/Video Streaming (오디오/비디오 스트리밍을 지원하는 분산 객체 프레임 워크 설계 및 구현)

  • Ban, Deok-Hun;Kim, Dong-Seong;Park, Yeon-Sang;Lee, Heon-Ju
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.5 no.4
    • /
    • pp.440-448
    • /
    • 1999
  • 본 논문은 객체지향형 분산처리 환경 하에서 오디오나 비디오 등과 같은 실시간(real-time) 스트림(stream) 데이타를 처리하는 데 필요한 소프트웨어 기반구조를 설계하고 구현한 내용을 기술한다. 본 논문에서 제시한 DAViS(Distributed Object Framework supporting Audio/Video Streaming)는, 오디오/비디오 데이타의 처리와 관련된 여러 소프트웨어 구성요소들을 분산객체로 추상화하고, 그 객체들간의 제어정보 교환경로와 오디오/비디오 데이타 전송경로를 서로 분리하여 처리한다. 분산응용프로그램 작성자는 DAViS에서 제공하는 서비스들을 이용하여, 기존의 분산프로그래밍 환경이 제공하는 것과 동일한 수준에서 오디오/비디오 데이타에 대한 처리를 표현할 수 있다. DAViS는, 새로운 형식의 오디오/비디오 데이타를 처리하는 부분을 손쉽게 통합하고, 하부 네트워크의 전송기술이나 컴퓨터시스템 관련 기술의 진보를 신속하고 자연스럽게 수용할 수 있도록 하는 유연한 구조를 가지고 있다. Abstract This paper describes the design and implementation of software framework which supports the processing of real-time stream data like audio and video in distributed object-oriented computing environment. DAViS(Distributed Object Framework supporting Audio/Video Streaming), proposed in this paper, abstracts software components concerning the processing of audio/video data as distributed objects and separates the transmission path of data between them from that of control information. Based on DAViS, distributed applications can be written in the same abstract level as is provided by the existing distributed environment in handling audio/video data. DAViS has a flexible internal structure enough to easily incorporate new types of audio/video data and to rapidly accommodate the progress of underlying network and computer system technology with very little modifications.

Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks (적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구)

  • Choi, Hee Jo;Park, Goo Man
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.11
    • /
    • pp.465-472
    • /
    • 2022
  • In this paper, the style synthesis network is trained to generate style-synthesized video through the style synthesis through training Stylegan and the video synthesis network for video synthesis. In order to improve the point that the gaze or expression does not transfer stably, 3D face restoration technology is applied to control important features such as the pose, gaze, and expression of the head using 3D face information. In addition, by training the discriminators for the dynamics, mouth shape, image, and gaze of the Head2head network, it is possible to create a stable style synthesis video that maintains more probabilities and consistency. Using the FaceForensic dataset and the MetFace dataset, it was confirmed that the performance was increased by converting one video into another video while maintaining the consistent movement of the target face, and generating natural data through video synthesis using 3D face information from the source video's face.

Video Motion Analysis for Sudden Death Detection During Sleeping (수면 중 돌연사 감지를 위한 비디오 모션 분석 방법)

  • Lee, Seung Ho
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.10
    • /
    • pp.603-609
    • /
    • 2018
  • Sudden death during sleep often occurs in different age groups. To prevent an unexpected sudden death, sleep monitoring is required. This paper presents a video analysis method to detect sudden death without using any attachable sensors. In the proposed method, a motion magnification technique detects even very subtle motion during sleep. If the magnification cannot detect motion, the proposed method readily decides on abnormal status (possibly sudden death). Experimental results on two kinds of sleep video show that motion magnification-based video analysis could be useful for discriminating sleep (with very subtle motion) from sudden death.

Intelligent Video Surveillance System for Video Analysis, Recognition and Tracking (비디오 영상분석, 인식 및 추적을 위한 지능형 비디오 감시시스템)

  • Kim, Tae-Kyung;Paik, Joon-Ki
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.498-500
    • /
    • 2012
  • 비디오 해석 및 추적기술은 특정한 시스템에서만 적용되는 것이 아니다. 이것은 비디오 내에서 의미 있는 정보를 능동적으로 감시 대상을 정의, 해석, 모델화, 추정 및 추적 할 수 있는 기반 기술을 의미하다. 일반적으로 감시시스템에서 감시 대상은 사람이나 차량이며, 상황에 따라 출입통제 구역으로 설정하기도 한다. 이는 연속된 영상에서 객체의 형태, 모양, 행동 분석, 움직임, 색상정보를 가지고 데이터 정의, 검출, 모델화를 통하여 인식, 식별 그리고 추적한다. 본 논문에서는 비디오 영상분석을 통해 단일카메라기반의 감시시스템과 PTZ 카메라기반 감시시스템 제안한다. 이때 단일 카메라기반의 감시는 배경생성방법을 이용하여 연속된 영상내의 객체를 지속적으로 관리가 가능하도록 설계하였고, PTZ 카메라기반의 감시는 카메라의 이동에 따른 배경안정화 방법과 카메라의 절대좌표를 활용하여 카메라 이동을 제어함과 동시에 오검출 문제를 해결하였다. 실험 및 결과분석으로는 시나리오 환경에서 배경생성방법을 이용한 검출의 정확성과 PTZ카메라 위치 변화에도 강인한 검출 결과를 비교 분석하였다.

Free-viewpoint Stereoscopic TIP Generation Using Virtual Camera and Depth Map (가상 카메라와 깊이 맵을 활용하는 자유시점 입체 TIP 생성)

  • Lee, Kwang-Hoon;Jo, Cheol-Yong;Choi, Chang-Yeol;Kim, Man-Bae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.219-222
    • /
    • 2009
  • 자유시점 비디오는 단순히 수동적으로 비디오를 보는 것이 아니라 원하는 시점을 자유로이 선택하여 보는 능동형 비디오이다. 일반적으로 다양한 위치 및 다양한 각도에 위치하는 다수의 카메라로부터 촬영된 영상을 이용하여 제작하는데, 이 기술은 박물관 투어, 엔터테인먼트 등의 다양한 분야에서 활용된다. 본 논문에서는 자유시점 비디오의 새로운 분야로 한 장의 영상을 가상 카메라와 깊이맵을 이용하여 영상 내부를 네비게이션하는 자유시점 입체 Tour-Into-Picture (TIP)을 제안한다. 오래전부터 TIP가 연구되어 왔는데, 이 분야는 한 장의 사진 내부를 탐험하면서 애니메이션으로 볼 수 있게 하는 기술이다. 제안 방법은 전처리과정으로 전경 마스크, 배경영상, 및 깊이맵을 자동 및 수동 방법으로 구한다. 다음에는 영상 내부를 항해하면서 투영 영상들을 획득한다. 배경영상과 전객객체의 3D 모델링 데이터를 기반으로 가상 카메라의 3차원 공간 이동, yaw, pitch, rolling의 회전, look-around effect, 줌인 등의 다양한 카메라 기능을 활용하여 자유시점 비디오를 구현한다. 또한 깊이정보의 특성 및 구조에 따라 놀라운 시청효과를 전달하는 카메라 기능의 설정 방법을 소개한다. 소프트웨어는 OpenGL 및 MFC Visual C++ 기반으로 구축되었으며, 실험영상으로 조선시대의 작품인 신윤복의 단오풍정을 사용하였고, 입체 애니메이션으로 제작되어 보다 실감있는 콘텐츠를 제공한다.

  • PDF

A Dynamic Segmentation Method for Representative Key-frame Extraction from Video data (동적 분할 기법을 이용한 비디오 데이터의 대표키 프레임 추출)

  • Lee, Soon-Hee;Kim, Young-Hee;Ryu, Keun-Ho
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.38 no.1
    • /
    • pp.46-57
    • /
    • 2001
  • To access the multimedia data, such as video data with temporal properties, the content-based image retrieval technique is required. Moreover, one of the basic techniques for content-based image retrieval is an extraction of representative key-frames. Not only did we implement this method, but also by analyzing the video data, we have proven the proposed method to be both effective and accurate. In addition, this method is expected to solve the real world problem of building video databases, as it is very useful in building an index.

  • PDF

VHDL Implementation of Transform and Quantization Intra Coding for H.264/AVC (H.264/AVC용 Intra coding의 변환 및 양자화 모듈의 VHDL 구현)

  • Choi, Dug-Young;Sonh, Seung-Il
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • v.9 no.1
    • /
    • pp.358-362
    • /
    • 2005
  • 디지털 비디오 압축기술은 멀티미디어 응용분야의 핵심으로 현재 빠르게 보급되어 최근에는 디지털비디오 압축 관련 국제 표준안 중 MPEG-4와 H.264가 발표되었다. 유연성이 좋은 MPEG-4와 달리H.264는 비디오 프레임의 효율적인 압축과 신뢰성을 강조 한다. 특히 H.264의 압축 기술은 카메라폰이나 DMB등의 작은 크기의 영상에서 고품질의 영상을 보다 효율적으로 제공 한다. 이에 본 논문은 현존하는 다른 비디오 코딩 표준과 비교할 때 코딩 효율이 기준의 두 배인 새로운 비디오 코딩 표준 H.264/AVC에서 사용하는, 변환 및 양자화를 연구하고 이를 기존의 정지영상 표준안인 JPEG나 JPEG 2000과 비교 분석하여 H.264/AVC의 공간적 압축인 인트라 코딩이 더 좋은 효과를 나타낸다는 것을 검증한 후 이를 토대로 하드웨어 설계언어인 VHDL언어를 이용하여 설계하고 FPGA칩인 XCV1000E에 다운로드 하여 칩 레벨의 시뮬레이션을 수행하여 설계된 변환 및 양자화 모듈을 검증하였다. 설계된 변환 및 양자화 모듈은 DMB 및 핸드폰 카메라와 같이 작은 정지 영상 압축에 응용이 가능하다.

  • PDF

A Study on the Video Analysis Tool to Support Collaboration for Effective Usability Evaluation (효율적인 사용성 평가를 위해 협력작업을 지원하는 비디오 분석 도구에 관한 연구)

  • 박정순;신수길
    • Archives of design research
    • /
    • v.17 no.3
    • /
    • pp.373-382
    • /
    • 2004
  • Video protocol analysis is a popular and effective technique in many research disciplines including industrial design and HCI for understanding the interactions between people, and between people and machines. Analysing and transcribing video recordings is, however, notoriously time consuming, and a variety of single-user computer based tools have been developed to ease the task. This paper examines collaborative video analysis. The motivation for groupware tools for video analysis is described, and the desirable features of such tools are identified. The following section reviews related work on video analysis and on single-user video analysis tools. The review is used to derive a set of design goals for collaborative video analysis tools. We then detail prototype's user interface, its collaborative facilities, and its implementation. The preliminary evaluation is described prior the conclusions which identify directions for further work.

  • PDF

A Technical Analysis on Deep Learning based Image and Video Compression (딥 러닝 기반의 이미지와 비디오 압축 기술 분석)

  • Cho, Seunghyun;Kim, Younhee;Lim, Woong;Kim, Hui Yong;Choi, Jin Soo
    • Journal of Broadcast Engineering
    • /
    • v.23 no.3
    • /
    • pp.383-394
    • /
    • 2018
  • In this paper, we investigate image and video compression techniques based on deep learning which are actively studied recently. The deep learning based image compression technique inputs an image to be compressed in the deep neural network and extracts the latent vector recurrently or all at once and encodes it. In order to increase the image compression efficiency, the neural network is learned so that the encoded latent vector can be expressed with fewer bits while the quality of the reconstructed image is enhanced. These techniques can produce images of superior quality, especially at low bit rates compared to conventional image compression techniques. On the other hand, deep learning based video compression technology takes an approach to improve performance of the coding tools employed for existing video codecs rather than directly input and process the video to be compressed. The deep neural network technologies introduced in this paper replace the in-loop filter of the latest video codec or are used as an additional post-processing filter to improve the compression efficiency by improving the quality of the reconstructed image. Likewise, deep neural network techniques applied to intra prediction and encoding are used together with the existing intra prediction tool to improve the compression efficiency by increasing the prediction accuracy or adding a new intra coding process.

Depth Image Compression based on a MPEG-4 SA-DCT for the Edge Preserving Method (MPEG-4 SA-DCT 기반의 경계 보존 방법을 이용한 깊이 영상 압축)

  • Kim, Dong-Hyun;Seo, Jung-Dong;Sohn, Kwang-Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.119-122
    • /
    • 2009
  • 멀티미디어 처리 분야의 급속한 발전으로 인해 3차원 TV (3DTV)는 차세대 방송 시스템 시장에서 가장 주목을 받는 제품이 되었다. 3DTV는 사용자가 원하는 시점을 자유롭게 선택할 수 있고, 입체감을 제공하여 사용자가 마치 그 곳에 있는 듯한 효과를 줄 수 있다. 지금까지 입체 영상은 스테레오 영상을 기반으로 하나의 시점에 대한 입체 영상을 제공했지만 최근에는 다시점 영상을 이용하여 다양한 위치에서의 입체 영상을 제공하는 기술이 연구되고 있다. 다시점 영상은 사용자에게 임의 시점의 영상에 대한 시청을 가능케 하여 입체감 있는 화면을 제공할 수 있다. 입체감 있는 영상을 만들기 위해서는 다시점 영상의 시점 간 가상 시점을 생성할 수 있도록 하고 깊이 정보를 포함하고 있는 깊이 영상 (Depth Image)을 획득하여야 한다. 획득된 깊이 영상 데이터와 다시점 비디오 데이터를 동시에 전송하는 다시점 비디오 시스템이 상용화되기 위해서는 방대한 양의 데이터를 효율적으로 압축하는 다시점 비디오 부호화 기술 개발이 필수적이다. 본 논문에서는 기존의 컬러 영상의 효율적인 압축 방법을 제안하던 다시점 비디오 부호화 기술에 국한되지 않고 3차원 영상 화질을 객관적으로 높일 수 있도록 깊이 영상의 효율적 압축 기법에 대한 새로운 방법을 제안한다.

  • PDF