• 제목/요약/키워드: Media Video

검색결과 2,649건 처리시간 0.027초

Video Quality for DTV Essential Hidden Area Utilization

  • Han, Chan-Ho
    • Journal of Multimedia Information System
    • /
    • 제4권1호
    • /
    • pp.19-26
    • /
    • 2017
  • The compression of video for both full HD and UHD requires the inclusion of extra vertical lines to every video frame, named as the DTV essential hidden area (DEHA), for the effective functioning of the MPEG-2/4/H encoder, stream, and decoder. However, while the encoding/decoding process is dependent on the DEHA, the DEHA is conventionally viewed as a redundancy in terms of channel utilization or storage efficiency. This paper proposes a block mode DEHA method to more effectively utilize the DEHA. Partitioning video block images and then evenly filling the representative DEHA macroblocks with the average DC coefficient of the active video macroblock can minimize the amount of DEHA data entering the compressed video stream. Theoretically, this process results in smaller DEHA data entering the video stream. Experimental testing of the proposed block mode DEHA method revealed a slight improvement in the quality of the active video. Outside of this technological improvement to video quality, the attractiveness of the proposed DEHA method is also heightened by the ease that it can be implemented with existing video encoders.

A Personal Videocasting System with Intelligent TV Browsing for a Practical Video Application Environment

  • Kim, Sang-Kyun;Jeong, Jin-Guk;Kim, Hyoung-Gook;Chung, Min-Gyo
    • ETRI Journal
    • /
    • 제31권1호
    • /
    • pp.10-20
    • /
    • 2009
  • In this paper, a video broadcasting system between a home-server-type device and a mobile device is proposed. The home-server-type device can automatically extract semantic information from video contents, such as news, a soccer match, and a baseball game. The indexing results are utilized to convert the original video contents to a digested or arranged format. From the mobile device, a user can make recording requests to the home-server-type devices and can then watch and navigate recorded video contents in a digested form. The novelty of this study is the actual implementation of the proposed system by combining the actual IT environment that is available with indexing algorithms. The implementation of the system is demonstrated along with experimental results of the automatic video indexing algorithms. The overall performance of the developed system is compared with existing state-of-the-art personal video recording products.

  • PDF

방송콘텐츠 저작권 식별관리를 위한 UCI 표준식별체계와 내용기반 식별정보의 상호연계 연구 (A Study on Cross-Association between UCI Identification System and Content-based Identifier for Copyright Identification and Management of Broadcasting Content)

  • 김주섭;남제호
    • 방송공학회논문지
    • /
    • 제14권3호
    • /
    • pp.288-298
    • /
    • 2009
  • 본 논문에서는 방송콘텐츠 저작권 식별관리를 위한 방송콘텐츠의 Video Signature와 국가표준콘텐츠식별체계인 UCI(Universal Content Identifier)의 연계 방안을 제시한다. Video Signature는 UCI와 같은 식별자의 인위적인 부여 과정이 없더라도 동영상 콘텐츠 자체에서 직접 특징정보를 추출할 수 있기 때문에, 이미 배포 유통된 콘텐츠에 대해서도 식별 확인이 가능하다. 따라서, 본 연구에서는 최근 국가표준콘텐츠식별체계로 통합, 단일화된 UCI 식별체계와 내용기반 식별정보인 Video Signature의 지속적인 연계를 위하여, 바이너리로 표현된 Video Signature를 포함하는 UCI 응용메타데이터를 정의한다. 그리고 UCI 표준식별체계 기반 Video Signature 전송 및 관리 메카니즘에 기반한 방송콘텐츠의 저작권 식별관리 및 부가서비스 시나리오를 제시한다.

360 비디오의 SSP를 위한 기하학적 패딩 (Geometry Padding for Segmented Sphere Projection (SSP) in 360 Video)

  • 김현호;명상진;윤용욱;김재곤
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.25-31
    • /
    • 2019
  • 360 비디오는 VR 응용의 확산과 함께 몰입형 미디어로 주목받고 있으며, JVET(Joint Video Experts Team)에서 post-HEVC로 진행중인 VVC(Versatile Video Coding) 표준화에서 360 비디오 부호화도 함께 고려되고 있다. 360 비디오 부호화를 위하여 2D로 투영된 영상에는 투영 면(face) 경계의 불연속성과 비활성 영역이 존재할 수 있으며 이는 부호화 효율을 저하시키고 시각적 아티팩트(visual artifact)를 발생시킬 수 있다. 본 논문에서는 2D 투영 기법 중 SSP(Segmented Sphere Projection)에서의 이러한 불연속성과 비활성 영역을 줄이는 효율적인 기하학적 패딩(padding) 기법을 제시한다. 실험결과, 제안 기법은 복사에 의한 패딩을 사용하는 기존 SSP 대비 미미한 부호화 효율 저하는 있지만 주관적 화질이 향상된 것을 확인할 수 있었다.

Stereo Video-See-Through를 위한 버튼형 인터페이스 (The User Interface of Button Type for Stereo Video-See-Through)

  • 최영주;서용덕
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제13권2호
    • /
    • pp.47-54
    • /
    • 2007
  • 본 논문은 두 대의 카메라로부터 들어온 영상을 보여주는 see-through 장치의 사용 환경하에서 일반적인 사용자도 쉽고 편리하게 컴퓨터 시스템 또는 여러 프로세스들을 제어할 수 있는 사용자 인터페이스를 제안한다. 이를 위해 AR기술을 접목하여 영상이 보이는 화면에 가상의 버튼들을 합성하였으며, 화면상에 보이는 손의 위치를 추적하여 손가락에 의한 버튼의 선택 유무를 판단하고 각 상황에 따른 버튼의 색상 변경을 통해 결과를 나타내었다. 사용자는 단순히 화면을 보며 공중에서 손가락을 움직여 버튼을 선택함으로써 관련 작업을 수행 할 수 있다.

  • PDF

동일 속성 결합에 의한 영상과 음악의 상호의존성 -영화 <인터스텔라(Interstellar, 2014)>를 중심으로- (Interdependence of Images and Music Combined by Sharing the Identical Properties - Based on the Movie -)

  • 이도경;김준
    • 한국콘텐츠학회논문지
    • /
    • 제19권10호
    • /
    • pp.237-247
    • /
    • 2019
  • 이 연구는 영화에서 음악과 영상의 심화된 관계를 모색하기 위해 두 미디어가 갖고 있는 공통점을 찾아 어떻게 결합되고 그에 따른 효과는 무엇인지 살펴본다. 음악을 영상에 종속되는 미디어로 여기는 기존 관점의 한계를 뛰어넘어, 두 미디어 사이의 심화된 관계를 조명하기 위해 영화 <인터스텔라>를 분석한다. 영화에서는 '반복 구조'의 동일한 속성을 공유하여 음악과 영상을 결합했으며, 이것은 영화의 주제 및 스토리에 대한 전달력을 높이고 시 청각적 자극을 극대화하며 몰입감을 형성한다. 즉, 대등한 위치에서 결합된 영상과 음악은 서로에게 끼치는 영향력이 크기 때문에 상호의존적 관계 수립에 대한 가능성을 긍정적으로 고찰할 수 있는 토대를 마련한다.

Automatic Generation of Video Metadata for the Super-personalized Recommendation of Media

  • Yong, Sung Jung;Park, Hyo Gyeong;You, Yeon Hwi;Moon, Il-Young
    • Journal of information and communication convergence engineering
    • /
    • 제20권4호
    • /
    • pp.288-294
    • /
    • 2022
  • The media content market has been growing, as various types of content are being mass-produced owing to the recent proliferation of the Internet and digital media. In addition, platforms that provide personalized services for content consumption are emerging and competing with each other to recommend personalized content. Existing platforms use a method in which a user directly inputs video metadata. Consequently, significant amounts of time and cost are consumed in processing large amounts of data. In this study, keyframes and audio spectra based on the YCbCr color model of a movie trailer were extracted for the automatic generation of metadata. The extracted audio spectra and image keyframes were used as learning data for genre recognition in deep learning. Deep learning was implemented to determine genres among the video metadata, and suggestions for utilization were proposed. A system that can automatically generate metadata established through the results of this study will be helpful for studying recommendation systems for media super-personalization.

미디어 편집을 위한 인물 식별 및 검색 기법 (Character Recognition and Search for Media Editing)

  • 박용석;김현식
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.519-526
    • /
    • 2022
  • 동영상 콘텐츠 편집 시 등장인물을 구분하고 식별하는 작업은 많은 시간과 노력이 요구되는 작업이다. 노동 집약적 특성이 있는 미디어 편집 작업 시 인공지능 기술을 활용하면 미디어 제작 시간을 획기적으로 줄일 수 있어 창작과정의 효율성 향상에 도움을 줄 수 있다. 본 논문에서는 동영상 편집을 위한 인물 식별 및 검색 작업을 자동화하기 위해 다수의 인공지능 기술을 혼합하여 활용하는 기법을 제안한다. 객체 검출, 얼굴 검출, 자세 예측 기법을 사용하여 인물 객체에 대한 특징 정보를 수집하고, 수집된 정보를 바탕으로 얼굴 인식, 색 공간 분석 기법 등을 활용하여 인물 객체 식별 정보를 생성한다. 인물 특징 및 식별 정보는 편집 대상 영상의 각 프레임에 대해서 수집되며 영상 편집을 위한 프레임 단위 검색을 위한 메타데이터로 사용된다.

Real-time multi-GPU-based 8KVR stitching and streaming on 5G MEC/Cloud environments

  • Lee, HeeKyung;Um, Gi-Mun;Lim, Seong Yong;Seo, Jeongil;Gwak, Moonsung
    • ETRI Journal
    • /
    • 제44권1호
    • /
    • pp.62-72
    • /
    • 2022
  • In this study, we propose a multi-GPU-based 8KVR stitching system that operates in real time on both local and cloud machine environments. The proposed system first obtains multiple 4 K video inputs, decodes them, and generates a stitched 8KVR video stream in real time. The generated 8KVR video stream can be downloaded and rendered omnidirectionally in player apps on smartphones, tablets, and head-mounted displays. To speed up processing, we adopt group-of-pictures-based distributed decoding/encoding and buffering with the NV12 format, along with multi-GPU-based parallel processing. Furthermore, we develop several algorithms such as equirectangular projection-based color correction, real-time CG overlay, and object motion-based seam estimation and correction, to improve the stitching quality. From experiments in both local and cloud machine environments, we confirm the feasibility of the proposed 8KVR stitching system with stitching speed of up to 83.7 fps for six-channel and 62.7 fps for eight-channel inputs. In addition, in an 8KVR live streaming test on the 5G MEC/cloud, the proposed system achieves stable performances with 8 K@30 fps in both indoor and outdoor environments, even during motion.