• 제목/요약/키워드: video metadata

검색결과 115건 처리시간 0.03초

영상정보를 활용한 소셜 미디어상에서의 가짜 뉴스 탐지: 유튜브를 중심으로 (Fake News Detection on Social Media using Video Information: Focused on YouTube)

  • 장윤호;최병구
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제32권2호
    • /
    • pp.87-108
    • /
    • 2023
  • Purpose The main purpose of this study is to improve fake news detection performance by using video information to overcome the limitations of extant text- and image-oriented studies that do not reflect the latest news consumption trend. Design/methodology/approach This study collected video clips and related information including news scripts, speakers' facial expression, and video metadata from YouTube to develop fake news detection model. Based on the collected data, seven combinations of related information (i.e. scripts, video metadata, facial expression, scripts and video metadata, scripts and facial expression, and scripts, video metadata, and facial expression) were used as an input for taining and evaluation. The input data was analyzed using six models such as support vector machine and deep neural network. The area under the curve(AUC) was used to evaluate the performance of classification model. Findings The results showed that the ACU and accuracy values of three features combination (scripts, video metadata, and facial expression) were the highest in logistic regression, naïve bayes, and deep neural network models. This result implied that the fake news detection could be improved by using video information(video metadata and facial expression). Sample size of this study was relatively small. The generalizablity of the results would be enhanced with a larger sample size.

Toward a Structural and Semantic Metadata Framework for Efficient Browsing and Searching of Web Videos

  • 김현희
    • 한국문헌정보학회지
    • /
    • 제51권1호
    • /
    • pp.227-243
    • /
    • 2017
  • This study proposed a structural and semantic framework for the characterization of events and segments in Web videos that permits content-based searches and dynamic video summarization. Although MPEG-7 supports multimedia structural and semantic descriptions, it is not currently suitable for describing multimedia content on the Web. Thus, the proposed metadata framework that was designed considering Web environments provides a thorough yet simple way to describe Web video contents. Precisely, the metadata framework was constructed on the basis of Chatman's narrative theory, three multimedia metadata formats (PBCore, MPEG-7, and TV-Anytime), and social metadata. It consists of event information, eventGroup information, segment information, and video (program) information. This study also discusses how to automatically extract metadata elements including structural and semantic metadata elements from Web videos.

더블린 코아 모델을 이용한 비디오 데이터의 표현 (Representation of Video Data using Dublin core Model)

  • 이순희;김상호;신정훈;김길준;류근호
    • 정보처리학회논문지D
    • /
    • 제9D권4호
    • /
    • pp.531-542
    • /
    • 2002
  • 지금까지 대부분의 메타데이터들은 응용 분야에 제한된 부분만을 주로 취급하였다. 그러나 동일한 비디오 데이터를 표현하기 위해서는 동일한 형태의 메타데이터가 필요하고, 이때 비디오 데이터베이스에서 동일한 비디오 데이터에 대하여 서로 다른 여러 개의 메타데이터를 지원해야 하는 문제가 발생한다. 이 논문에서는 이러한 문제를 해결하기 위하여 더블린 코어 모델을 확장하였다. 제안된 비디오데이터 표현에서는 더블린 코아 모델을 확장한 메타데이터가 비디오 데이터의 구조, 내용 및 조작에 관한 정보를 관리하도록 하였다. 제안된 메타 데이터는 시스템 관리 부분과 사용자 정의 부분을 분리함으로써 응용 분야에 독립적인 모델구축이 가능하다. 13개의 시간 관계 연산은 더미 샷의 시간 변환 관계를 사용하여 6개로 감소시켰다. 이 감소된 6개의 연산은 역관계를 배제시켜 표현의 일관성을 유지시키고, n-ary시간 관계의 샷들을 이진관계로 변환시킨다. 그리고 실제 응용 분야에 적용하고 실험하여 확장된 더블린 코어 모델이 응용 분야에 동일한 구조로 메타데이터를 표현하고 동일한 방법으로 검색할 수 있음을 증명하였다.

User Edited Contents 생성을 위한 동영상 메타데이터 스키마 설계 및 저작 도구 구현 (Design of a Video Metadata Schema and Implementation of an Authoring Tool for User Edited Contents Creation)

  • 송인선;낭종호
    • 정보과학회 논문지
    • /
    • 제42권3호
    • /
    • pp.413-418
    • /
    • 2015
  • 본 논문에서는 UEC (User Edited Contents)를 생성을 위한 비디오 세그먼트 검색에 적합한 동영상 메타데이터 스키마를 설계 및 제안한다. 전통적인 동영상 하위 구조 및 내용 정보 구조와 달리, 제안한 동영상 메타데이터 스키마에서 메타데이터는 Title-Event-Place (Scene)-Shot의 계층적인 구조를 가지며, 각 단위 세그먼트 별로 저장하여야 할 정보를 구조화하여 정의하였다. 현재 생성되어 배포되고 있는 UEC에 대한 논리적인 특징 분석을 통해 Pilot 태깅 실험을 설계하고, 피 실험자들의 태깅 행태와 태그들의 분석을 통해 이러한 메타데이터의 구성 방식과 스키마를 설계하였다. 제안한 시키마는 UEC 생성을 위한 동영상 검색의 특성을 고려하여 설계되었기 때문에 UEC 생성에 유용한 비디오 세그먼트를 범용 MPEG-7 MDS (Multimedia Description Scheme) 보다 쉽게 찾을 수 있도록 한다.

메타 정보를 이용한 부분 분할동영상 다운로딩 구현 (Partial video downloading scheme using metadata)

  • 최형석;최만석;설상훈;김혁만
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2001년도 정기총회 및 학술대회
    • /
    • pp.233-236
    • /
    • 2001
  • Due to the current limitation on network bandwidth, it is difficult to get the video files of interests from the server by downloading/streaming. To solve this problem, we propose a scheme for generating a virtual single video in the client side by downloading the selected video segments and the corresponding metadata from the server. Our system is based MPEG-7 standard on the multimedia metadata. The experimental system demonstrates the feasibility of our approach.

  • PDF

영상의 효과음을 통한 분위기 메타데이터 추출 (Extractiong mood metadata through sound effects of video)

  • 유연휘;박효경;용성중;이서영;문일영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.453-455
    • /
    • 2022
  • 메타데이터는 데이터에 대한 속성이나 특징을 설명하는 구조화된 데이터를 말한다. 그중에서 비디오 메타데이터는 정확한 콘텐츠 기반 검색을 위해 비디오를 구성하는 정보에서 추출한 데이터를 의미한다. 최근 영상 콘텐츠를 이용하는 사용자들이 늘어나면서 자연스럽게 OTT 제공 업체들 역시 늘어나고 있으며, OTT 제공 업체에서 많은 양의 영상 콘텐츠를 개인 사용자에게 추천 또는 알맞은 검색을 위해 메타데이터의 역할이 중요해지고 있다. 본 논문에서는 영상의 효과음을 통해 분위기 속성에 대한 메타데이터를 자동으로 추출하는 방법에 관해 연구를 진행하였다. 영상의 효과음에 대한 분류와 분위기 속성에 대한 메타데이터 생성을 위해 분위기에 대한 용어사전을 구축하고 지도학습을 통해 정보를 추출하는 방법을 제안하고자 한다.

  • PDF

비디오의 의미검색과 유사성검색을 위한 통합비디오정보시스템 (Hybrid Video Information System Supporting Content-based Retrieval and Similarity Retrieval)

  • 윤미희;윤용익;김교정
    • 한국정보처리학회논문지
    • /
    • 제6권8호
    • /
    • pp.2031-2041
    • /
    • 1999
  • 본 논문에서는 비정형, 대용량의 비디오데이터의 특징기반 검색과 주석기반 검색을 통합하여 다양한 사용자의 의미검색을 지원하고, 유사성 질의를 지원하는 통합비디오정보시스템(Hybrid Video Information System : HVIS)을 제안한다. HVIS는 메타데이터 모델링을 위해 한편의 비디오를 비디오 다큐먼트, 시퀸스, 장면, 객체로 나누고 물리적인 비디오스트림을 위한 원시데이터계층(raw_data layer)과 주석기반 검색, 특징기반 검색, 유사성 검색을 지원하기 위한 메타데이터계층(meta_data layer)의 두 개의 계층을 가진 통합 계층지향 메타데이터모델(Two layered Hybrid Object-oriented Metadata Model : THOMM)과 이 모델을 기반으로 주석기반 질의, 특징기반 질의, 유사질의가 가능한 비디오질의언어 (Video Query Language)와 질의를 처리하기 위한 비디오질의처리기 (Video Query Processor : VQP)와 질의처리알고리즘을 제안한다. 특히 유사한 장면, 객체를 찾는 유사질의시 사용자의 관심을 고려한 유사성 정도를 나타내는 식을 제시한다. 제안된 시스템은 Visual C++, ActiveX와 ORACLE를 이용하여 구현되었다.

  • PDF

Automatic Generation of Video Metadata for the Super-personalized Recommendation of Media

  • Yong, Sung Jung;Park, Hyo Gyeong;You, Yeon Hwi;Moon, Il-Young
    • Journal of information and communication convergence engineering
    • /
    • 제20권4호
    • /
    • pp.288-294
    • /
    • 2022
  • The media content market has been growing, as various types of content are being mass-produced owing to the recent proliferation of the Internet and digital media. In addition, platforms that provide personalized services for content consumption are emerging and competing with each other to recommend personalized content. Existing platforms use a method in which a user directly inputs video metadata. Consequently, significant amounts of time and cost are consumed in processing large amounts of data. In this study, keyframes and audio spectra based on the YCbCr color model of a movie trailer were extracted for the automatic generation of metadata. The extracted audio spectra and image keyframes were used as learning data for genre recognition in deep learning. Deep learning was implemented to determine genres among the video metadata, and suggestions for utilization were proposed. A system that can automatically generate metadata established through the results of this study will be helpful for studying recommendation systems for media super-personalization.

지능형 영상 감시 환경에서의 개인정보보호를 위한 COP-변환 기반 메타데이터 보안 기법 연구 (A Study on COP-Transformation Based Metadata Security Scheme for Privacy Protection in Intelligent Video Surveillance)

  • 이동혁;박남제
    • 정보보호학회논문지
    • /
    • 제28권2호
    • /
    • pp.417-428
    • /
    • 2018
  • 지능형 영상감시 환경은 CCTV 등에서 실시간으로 수집한 영상데이터의 분석을 통해 영상 객체에 대한 다양한 정보를 추출하고 이를 기반으로 자동화된 처리를 가능하게 하는 기술이다. 그러나 지능형 영상감시 환경에서는 프라이버시 노출 문제가 발생할 수 있어 이에 안전한 대책이 필수적이다. 특히, 영상 메타데이터에는 빅데이터 기반으로 분석된 다양한 개인정보가 포함될 수 있어 높은 위험성을 안고 있으나, 효율성의 문제로 영상메타에 암호화 방식을 적용하는 것은 적절하지 않다. 본 논문에서는 영상메타를 안전하게 보호할 수 있는 COP-변환 기법을 제안한다. 제안한 방식은 메타 변환을 통하여 원본 메타정보를 복원할 수 없도록 하며, 변환된 데이터에 직접적으로 질의를 가능하게 하므로 영상 메타데이터 처리과정에서의 안전성과 효율성을 크게 높인다는 장점이 있다.

디지털 도서관을 위한 동영상 정보 관리 시스템의 설계 및 구현 (Design and Implementation of A Video Information Management System for Digital Libraries)

  • 김현주;권재길;정재희;김인홍;강현석;배종민
    • 한국멀티미디어학회논문지
    • /
    • 제1권2호
    • /
    • pp.131-141
    • /
    • 1998
  • Video data occurred in multimedia documents consist of a large scale of irregular data including audio-visual, spatial-temporal, and semantic information. In general, it is difficult to grasp the exact meaning of such a video information because video data apparently consist of unmeaningful symbols and numerics. In order to relieve these difficulties, it is necessary to develop an integrated manager for complex structures of video data and provide users of video digital libraries with easy, systematic access mechanisms to video informations. This paper proposes a generic integrated video information model(GIVIM) based on an extended Dublin Core metadata system to effectively store and retrieve video documents in digital libraries. The GIVIM is an integrated mo이 of a video metadata model(VMN) and a video architecture information model(VAIM). We also present design and implementation results of a video document management system(VDMS) based on the GIVIM.

  • PDF