• 제목/요약/키워드: Video Image

검색결과 2,977건 처리시간 0.027초

영상 통신을 위한 웨이블릿 변환 부호화 (Wavelet Transform Coding for Image Communication)

  • 김용연
    • 한국전자통신학회논문지
    • /
    • 제6권1호
    • /
    • pp.61-67
    • /
    • 2011
  • 본 논문은 동영상을 효과적으로 부호화하기 위한 새로운 방법에 관하여 연구한 것이다. 움직임 정보를 이용하여 기준 프레임 영상과 상관관계가 적은 프레임 영상에서는 화질을 보장하고, 기준 프레임 영상과 상관관계가 많은 프레임 영상에서는 전체 동영상의 비트율을 보장하는 픽쳐 셋 필터를 제안하였다. 실험 결과, 제안한 동영상 부호화 방법은 기존의 전영역 탐색 블럭 정합 알고리즘에 비하여, 화질은 8.99dB이 향상되고, 압축률은 14.85배가 증가되었으며, 부호화시간은 74.9%가 단축되었다. 그리고, 차영상 알고리즘에 비하여, 화질은 24.87dB이 떨어졌으나, 압축률은 41.94배가 증가하였으며, 부호화시간은 0.9%가 단축됨으로써 좋은 성능을 나타냄을 확인하였다.

An efficient Video Dehazing Algorithm Based on Spectral Clustering

  • Zhao, Fan;Yao, Zao;Song, Xiaofang;Yao, Yi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권7호
    • /
    • pp.3239-3267
    • /
    • 2018
  • Image and video dehazing is a popular topic in the field of computer vision and digital image processing. A fast, optimized dehazing algorithm was recently proposed that enhances contrast and reduces flickering artifacts in a dehazed video sequence by minimizing a cost function that makes transmission values spatially and temporally coherent. However, its fixed-size block partitioning leads to block effects. The temporal cost function also suffers from the temporal non-coherence of newly appearing objects in a scene. Further, the weak edges in a hazy image are not addressed. Hence, a video dehazing algorithm based on well designed spectral clustering is proposed. To avoid block artifacts, the spectral clustering is customized to segment static scenes to ensure the same target has the same transmission value. Assuming that edge images dehazed with optimized transmission values have richer detail than before restoration, an edge intensity function is added to the spatial consistency cost model. Atmospheric light is estimated using a modified quadtree search. Different temporal transmission models are established for newly appearing objects, static backgrounds, and moving objects. The experimental results demonstrate that the new method provides higher dehazing quality and lower time complexity than the previous technique.

장자 나비의 꿈을 소재로 한 인터렉티브 비디오 구현 (Development of an Interactive Video Installation Based on Zhuangzi's Butterfly Dream)

  • 김태희
    • 한국게임학회 논문지
    • /
    • 제11권2호
    • /
    • pp.29-37
    • /
    • 2011
  • 디지털 아트의 한 영역으로써 인터렉티브 비디오는 관객이 특정한 관점에서 비디오 공간에 비춰지는 매체적 특성상 거울의 효과가 하나의 비유로써 도입된 바 있으며 이는 미디어의 본질에 접근하는 담론을 자극하였다. 본 논문에서 소개되는 인터렉티브 비디오 작품은 이러한 담론의 연장선에서 개념적으로는 장자의 나비의 꿈에서 나타나는 사상에 기초하며 기술적으로는 컴퓨터 비젼을 이용하여 명암 처리를 통해 관객의 실루엣을 얻음으로써 다수의 그래픽 나비 개체가 이를 추상적으로 그리게 한다. 관객은 그래픽 공간에 투영된 자신의 이미지와 상호작용하면서 내러티브를 생산하게 된다. 시스템에 사운드를 도입하여 공간감을 증강시키고 추가적인 내러티브를 생산할 수 있도록 하였다. 본 작품에서 도입된 컴퓨터 비젼 기법과 개체의 자율행동 및 군집운동 메카니즘에 의한 그래픽 생성이 인터렉티브 비디오를 구현하는 하나의 방식으로 제시된다.

다중 워터마킹을 지원하는 비선형 동영상 편집기 (Nonlinear Moving Picture Editor for Multiple Watermarking)

  • 윤석민;한경섭;정순기
    • 한국컴퓨터정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.124-129
    • /
    • 2002
  • 최근 들어 VOD(Video On Demand), 인터넷 방송, 영상 회의 시스템, 및 가상현실(virtual reality) 등의 응용분야에서 동영상이 다양한 형태로 활용되고 있다. 본 연구에서는 웹 캐스팅 등을 통해 영상을 전송 시 왜곡이 심하게 발생하는 장면 전환 위치에서도 디지털 영상에 대한 저작권 정보의 견고성을 유지시킬 수 있는 정보 은닉 방법으로 다중 워터마킹 기법에 대한 연구를 수행한다. 이를 위해 주파수 확산 워터마킹의 장점인 에러에 대한 강인성과 움직임 벡터 워터마킹의 장점인 실시간 성을 결합시킨 개선된 다중 워터마킹을 이용한 새로운 방식의 동영상 편집기를 구현한다.

  • PDF

초저속 전송 네트웍을 위한 웨이브릿 변환을 이용한 비디오 코딩 (Video Coding Using Wavelet Decomposition for Very Low Bit - rate Networks)

  • 오황석;이흥규
    • 한국정보처리학회논문지
    • /
    • 제4권10호
    • /
    • pp.2629-2639
    • /
    • 1997
  • 최근 초저속 전송 매체용 비디오 코딩 기법에 대한 관심이 높아지고 있다. 그러나 기존의 블럭을 기반으로 하는 변환 코딩기법들은 비트율 제한으로 인해 블럭화 현상 등으로 화질 열화가 심하다. 본 논문에서는 초저속 전송 매체를 위하여 웨이브릿 변환과 다중해상도 움직임 추정 및 보상 기법을 이용하는 비디오 코딩 시스템을 제안한다. 제안된 시스템은 non-stationary 신호를 적응적으로 표현하며, 인간 시각 특성을 잘 반영하는 웨이브릿 변환을 사용한다. 웨이브릿 변환된 계수들은 움직임 추정 및 보상 후 예측 오차의 크기에 따라서 다양한 모드로 코딩된다. 이와 함께 일정한 화질을 유지하기 위하여 간단한 버퍼 제어 기법을 사용한다. 실험을 통하여 제안된 기법은 블럭화 현상이 줄어들며, 기존의 블럭을 기반으로 하는 변환 코딩 기법보다 복원 영상의 화질이 좋음을 보였다.

  • PDF

다중 네트워크 카메라 기반 실시간 파노라마 동영상 생성 시스템 (Real-Time Panorama Video Generation System using Multiple Networked Cameras)

  • 최경윤;전경구
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.990-997
    • /
    • 2015
  • 파노라마 영상 생성관련 분야는 다양하게 연구되어 왔다. 기존의 방식들은 특수목적 하드웨어를 이용하거나, 후처리 소프트웨어를 이용하여 파노라마 영상을 생성한다. 하지만 이 방식들은 비용적인 문제와 조작의 번거로움의 문제가 있다. 또한 영상 내 특징 점의 존재 유무에 따라 정합이 가능한 범위도 제한된다. 본 논문에서는 저비용의 조작이 용이한 실시간 파노라마 동영상 생성 방법을 제안한다. 제안한 시스템에서는 저비용의 범용 하드웨어를 이용하여 영상을 촬영하고, 동영상 압축 스트리밍 방법을 통해 서버로 영상을 전송한 뒤 파노라마 영상을 정합한다. 구현된 시스템의 성능 분석을 통해 파노라마 영상의 생성 시간을 측정하였고 동영상이 생성됨을 확인하였다.

Development of monocular video deflectometer based on inclination sensors

  • Wang, Shuo;Zhang, Shuiqiang;Li, Xiaodong;Zou, Yu;Zhang, Dongsheng
    • Smart Structures and Systems
    • /
    • 제24권5호
    • /
    • pp.607-616
    • /
    • 2019
  • The video deflectometer based on digital image correlation is a non-contacting optical measurement method which has become a useful tool for characterization of the vertical deflections of large structures. In this study, a novel imaging model has been established which considers the variations of pitch angles in the full image. The new model allows deflection measurement at a wide working distance with high accuracy. A monocular video deflectometer has been accordingly developed with an inclination sensor, which facilitates dynamic determination of the orientations and rotation of the optical axis of the camera. This layout has advantages over the video deflectometers based on theodolites with respect to convenience. Experiments have been presented to show the accuracy of the new imaging model and the performance of the monocular video deflectometer in outdoor applications. Finally, this equipment has been applied to the measurement of the vertical deflection of Yingwuzhou Yangtze River Bridge in real time at a distance of hundreds of meters. The results show good agreement with the embedded GPS outputs.

A Feasibility Study on RUNWAY GEN-2 for Generating Realistic Style Images

  • Yifan Cui;Xinyi Shan;Jeanhun Chung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.99-105
    • /
    • 2024
  • Runway released an updated version, Gen-2, in March 2023, which introduced new features that are different from Gen-1: it can convert text and images into videos, or convert text and images together into video images based on text instructions. This update will be officially open to the public in June 2023, so more people can enjoy and use their creativity. With this new feature, users can easily transform text and images into impressive video creations. However, as with all new technologies, comes the instability of AI, which also affects the results generated by Runway. This article verifies the feasibility of using Runway to generate the desired video from several aspects through personal practice. In practice, I discovered Runway generation problems and propose improvement methods to find ways to improve the accuracy of Runway generation. And found that although the instability of AI is a factor that needs attention, through careful adjustment and testing, users can still make full use of this feature and create stunning video works. This update marks the beginning of a more innovative and diverse future for the digital creative field.

디지털 방송에서 HDTV 필수 부가영역 (HDTV Essential Padding Area in Digital Broadcasting)

  • 한찬호;윤인섭
    • 한국멀티미디어학회논문지
    • /
    • 제20권6호
    • /
    • pp.853-864
    • /
    • 2017
  • HD padding area is essential redundancy in HD broadcasting. It is possible to use this padding area for the purpose of improving DTV broadcasting services. For utilization of this area, The bit of a service data was converted to black and white $8{\times}8$ block image. Converted block images are compressed with active video and are delivered to a receiver as only DC coefficients in a video stream. video quality is not effected by the proposed method, and service data was perfectly recovered in receiver without errors by using block average and threshold. The proposed utilization of HD essential padding area can possibly overcome the limited transmission stream rate with the bandwidth of HD broadcasting. If service data in transport or video stram were transferred using this padding area, it is possible to improve video quality with expanded video stream rate. Additionally, because the proposed methods are based on well-established standards, it is also useful for world-wide HD broadcasting systems such as ATSC, DVB, and IPTV.

Video Augmentation by Image-based Rendering

  • Seo, Yong-Duek;Kim, Seung-Jin;Sang, Hong-Ki
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 Proceedings of International Workshop on Advanced Image Technology
    • /
    • pp.147-153
    • /
    • 1998
  • This paper provides a method for video augmentation using image interpolation. In computer graphics or augmented reality, 3D information of a model object is necessary to generate 2D views of the model, which are then inserted into or overlayed on environmental views or real video frames. However, we do not require any three dimensional model but images of the model object at some locations to render views according to the motion of video camera which is calculated by an SFM algorithm using point matches under weak-perspective (scaled-orthographic) projection model. Thus, a linear view interpolation algorithm is applied rather than a 3D ray-tracing method to get a view of the model at different viewpoints from model views. In order to get novel views in a way that agrees with the camera motion the camera coordinate system is embedded into model coordinate system at initialization time on the basis of 3D information recovered from video images and model views, respectively. During the sequence, motion parameters from video frames are used to compute interpolation parameters, and rendered model views are overlayed on corresponding video frames. Experimental results for real video frames and model views are given. Finally, discussion on the limitations of the method and subjects for future research are provided.

  • PDF