• Title/Summary/Keyword: 동영상 정보

Search Result 2,241, Processing Time 0.035 seconds

OSMU Video UCC Learning Content Authoring Tool Design Using Content Sources Created by Others (외부 콘텐츠 소스를 활용한 OSMU 동영상 UCC 학습 콘텐츠 에디터 설계)

  • Oh, Jung-Min;Kim, Kyung-Ah;Moon, Nam-Mee
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.349-352
    • /
    • 2009
  • 최근 정보의 형태는 텍스트나 이미지 기반에서 벗어나 복합 멀티미디어, 즉 동영상 위주로 빠르게 이동하고 있다. 특히 사용자에 의해 제작되고 유통되는 동영상 UCC의 급격한 부상은 사용자의 정보 생산력과 정보 공유, 소비 형태를 능동적으로 변화시키고 있다. PC 뿐 아니라 IPTV에서도 주요 서비스 모델로 관심을 받는 동영상 UCC는 향후 지식 결부형 학습 콘텐츠로 옮아갈 것이라 예상되고 있으며 여기에는 수익 모델의 개발과 저작권 보호 이슈가 해결해야 할 선결 과제로 인식된다. 이에 본 논문은 방송 콘텐츠 제공 표준 기술인 TV-Anytime, 학습객체메타데이터인 LOM(Learning Object Metadata)을 기반으로 OSMU 동영상 UCC 학습 콘텐츠 서비스 모델을 위한 에디터를 설계하고 외부 콘텐츠 소스를 활용할 수 있는 콘텐츠 저작 시나리오에 기반한 메타데이터를 설계하였다. 이를 통해 사용자의 다양한 지식을 활용할 수 있는 UCC 학습 콘텐츠 서비스 모델 발굴과 콘텐츠의 확대 재생산에 있어서 적극적인 저작권 보호가 이루어질 것을 기대한다.

  • PDF

A Study On The Design Of Video Retrieving System Using Cut Detection (장면전환 지점 검출을 이용한 동영상 검색 시스템 설계에 관한 연구)

  • 임영숙;김형균;정기봉;고석만;오무송
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.562-564
    • /
    • 1998
  • 멀티미디어 기술이 발전됨에 따라 방대한 양의 동영상 데이터로부터 원하는 장면을 빠르고 손쉽게 검색하기 위한 연구는 동영상을 포함한 멀티미디어 서비스가 제공되는 현 시점에서 대단히 시급한 문제로 인식되고 있다. 본 연구에서는 동영상데이터를 대상으로 장면전환 지점을 검출하기 위하여 검색을 원하는 영상을 4개의 구역으로 구분하여 각각의 구역에 경계위치를 설정하며, 설정된 경계위치에 해당하는 칼라값을 분석하여 비디오 메모리에 저장한 후 이미지 데이터 베이스에 저장된 동영상 데이터의 각 Frame도 공간별 칼라값을 추출하여 이를 비디오 메모리값과 비교해서 연속된 두 Frame간의 칼라값 차이를 구하여 그 차이가 임계값 이상이 되면 장면전환 지점으로 검출하는 방법으로 사용자가 원하는 정보를 빠르게 검색하는 시스템을 설계하였다.

  • PDF

Moving object tracking method for mulimedia telecommunication interface (멀티미디어 통신 인터페이스를 위한 동영상 내의 물체 추적 방법)

  • 조영기;이성룡
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 1996.04a
    • /
    • pp.593-596
    • /
    • 1996
  • 멀티미디어 통신기술을 이용한 통신 환경의 구축은 초고속, 광대역으로 발전하는 통신기술의 발전과 날로 고도화 되는 컴퓨터 기술의 발달에 힘입어 그 적용범위가 확산되고 있다. 특히 이러한 환경에서 동영상의 통신은 기존의 문자, 그래픽 혹은 정지화상을 이용한 통신에서 보다는 더욱 많은 정보를 사용자에게 이해하기 쉽게 전달한다는 점에서 그 응용분야가 증대되고 있다. 그러나 기존의 동영상 통신에서는 동영상이 화상회의 등의 예에서 보듯이 사용자에게 단순히 영상정보를 제공하는 수단으로서만 이용이 되었다. 진정한 의미의 양방향 통신을 위해서는 이러한 동영상에 대한 사용자의 제어가 가능한 인터페이스가 필요한데, 본 연구에서는 이러한 인터페이스의 구축을 위한 기반기술로써 동영상내의 물체 추적방법에 대해 소개한다. 개발된 방법은 영상의 밝기나 형태변화에 민감하지 않고 추적물체의 모델링을 자동적으로 할 수 있다는 점에서 기존의 영상처리 방법과는 구별된다.

  • PDF

Major Character Extraction using Character-Net (Character-Net을 이용한 주요배역 추출)

  • Park, Seung-Bo;Kim, Yoo-Won;Jo, Geun-Sik
    • Journal of Internet Computing and Services
    • /
    • v.11 no.1
    • /
    • pp.85-102
    • /
    • 2010
  • In this paper, we propose a novel method of analyzing video and representing the relationship among characters based on their contexts in the video sequences, namely Character-Net. As a huge amount of video contents is generated even in a single day, the searching and summarizing technologies of the contents have also been issued. Thereby, a number of researches have been proposed related to extracting semantic information of video or scenes. Generally stories of video, such as TV serial or commercial movies, are made progress with characters. Accordingly, the relationship between the characters and their contexts should be identified to summarize video. To deal with these issues, we propose Character-Net supporting the extraction of major characters in video. We first identify characters appeared in a group of video shots and subsequently extract the speaker and listeners in the shots. Finally, the characters are represented by a form of a network with graphs presenting the relationship among them. We present empirical experiments to demonstrate Character-Net and evaluate performance of extracting major characters.

Contextual In-Video Advertising Using Situation Information (상황 정보를 활용한 동영상 문맥 광고)

  • Yi, Bong-Jun;Woo, Hyun-Wook;Lee, Jung-Tae;Rim, Hae-Chang
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.11 no.8
    • /
    • pp.3036-3044
    • /
    • 2010
  • With the rapid growth of video data service, demand to provide advertisements or additional information with regard to a particular video scene is increasing. However, the direct use of automated visual analysis or speech recognition on videos virtually has limitations with current level of technology; the metadata of video such as title, category information, or summary does not reflect the content of continuously changing scenes. This work presents a new video contextual advertising system that serves relevant advertisements on a given scene by leveraging the scene's situation information inferred from video scripts. Experimental results show that the use of situation information extracted from scripts leads to better performance and display of more relevant advertisements to the user.

Conversation Context Annotation using Speaker Detection (화자인식을 이용한 대화 상황정보 어노테이션)

  • Park, Seung-Bo;Kim, Yoo-Won;Jo, Geun-Sik
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.9
    • /
    • pp.1252-1261
    • /
    • 2009
  • One notable challenge in video searching and summarizing is extracting semantic from video contents and annotating context for video contents. Video semantic or context could be obtained by two methods to extract objects and contexts between objects from video. However, the method that use just to extracts objects do not express enough semantic for shot or scene as it does not describe relation and interaction between objects. To be more effective, after extracting some objects, context like relation and interaction between objects needs to be extracted from conversation situation. This paper is a study for how to detect speaker and how to compose context for talking to annotate conversation context. For this, based on this study, we proposed the methods that characters are recognized through face recognition technology, speaker is detected through mouth motion, conversation context is extracted using the rule that is composed of speaker existing, the number of characters and subtitles existing and, finally, scene context is changed to xml file and saved.

  • PDF

Video Clip Ranking using Bounded Coordinate System Matching (BCS 최대 매칭을 이용한 유사 비디오 클립 랭킹)

  • Jung, Euisuk;Shim, Kyuseok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.716-719
    • /
    • 2010
  • 비디오 클립은 최근 온라인 상에서 흔히 볼 수 있는 짧은 동영상으로 이러한 동영상 클립의 대규모 유입으로 유사한 비디오 클립을 검색하는 동영상 검색 엔진의 필요성이 크게 증가하였다. BCS은 최초의 단일 비디오 클립 표현 모델로 비디오 클립을 주성분 분석을 통해 얻어진 좌표축들을 그 위로 사상된 데이터들로 제한한 것들로 이루어진 좌표계로 요약한다. 그러나 BCS 은 영상의 순서를 무시한 벡터로 표현되므로 세밀한 유사도 구별이 불가능하다. 본 논문에서는 유사한 동영상에 대한 사람의 판단은 서로 유사한 일부분이 많이 존재하는 것을 기반으로 하는 점에 착안하여 하나의 동영상 클립을 샷 단위로 나누어 여러 개의 BCS 으로 나타낸 다음, 이들간의 유사도 측정을 통해 검색의 성능을 높이고자 하였다. 실험 결과 만족할 만한 정확도로 유사한 동영상 클립을 검색해 내는 것을 확인할 수 있다.

A Research on Improving Readability of subtitles combined with typography in Hangeul - Focusing on Noto Sans Korean fonts in mobile environment (타이포그래피 기술을 접목시킨 자막 가독성 개선 연구 - 모바일 환경에서 Noto Sans Korean 폰트를 중심으로 -)

  • Park, Jae-Hong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.47-48
    • /
    • 2021
  • 본 연구는 타이포그래피 기술을 접목한 동영상과 기본 자동 자막을 사용한 동영상의 한글 자막 가독성을 비교·분석하여 모바일 동영상 시청 시 한글 자막의 가독성 개선을 위한 기초자료를 제공하는 데 목적이 있다. 연구의 목적을 위해 기본으로 설정되는 자동 자막을 사용한 동영상과 타이포그래피 기술을 적용·개선한 한글 폰트를 자막에 적용한 동영상을 비교하는 설문을 실시하였다. 시각디자인 전공자(73명)과 비전공자(52명)간의 자막 가독성 설문조사의 결과를 비교·분석하였다. 또한, 모바일을 통해 외국어 동영상 시청 시 자막 설정 기능에서 중요하게 여겨지는 요인과 현재 자막 설정 기능 중 불편하게 여기는 요인을 분석하였다. 수집된 설문의 자료는 Windows SPSS 26.0을 사용하여 분석하였다. 자막 설정 기능에서 중요하게 여겨지는 요인과 현재 자막 설정 기능의 불편 사항 등에 대한 인식의 차이를 살펴보기 위해 빈도분석, 𝑥2 검정, t 검정, 일원변량분석(one-way ANOVA) 등을 실시하였다.

  • PDF

Construction Method for MDR-based Database Structure of Traffic Accidents (MDR 기반의 교통사고 동영상 DB 구축 방안)

  • Hong Sung-Ho;Kim Jin-Woo;Kim Young-Gab;Ki Yong-Kul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.76-78
    • /
    • 2005
  • 본 교통사고 동영상 DB 설계의 연구 목적은 교통사고 자동기록장치에서 수집되는 교통사고 동영상 자료를 효율적으로 활용하기 위한 교통사고 동영상 DB 구축 방안에 관한 연구이며, 이를 위해 ISO/IEC 11179 표준인 MDR을 이용한 교통사고 동영상 DB 논리 모델을 제안하는 데 있다. 본 논문에서 제안하는 DB구조를 통해 실시간 대용량 교통사고 동영상 데이터에 대한 데이터의 생성, 관리 및 검색 성능을 향상시킬 수 있을 뿐만 아니라, MDR 표준 개념 적용으로 상호 이질적인 DB 간의 상호운용성(interoperability)이 증대된다.

  • PDF

A Study on Feature Information Parsing of Video Image Using Improved Moment Invariant (향상된 불변모멘트를 이용한 동영상 이미지의 특징정보 분석에 관한 연구)

  • Lee, Chang-Soo;Jun, Moon-Seog
    • Journal of Korea Multimedia Society
    • /
    • v.8 no.4
    • /
    • pp.450-460
    • /
    • 2005
  • Today, multimedia information is used on the internet and various social areas by rapid development of computer and communication technology. Therefor, the usage is growing dramatically. Multimedia information analysis system is basically based on text. So, there are many difficult problems like expressing ambiguity of multimedia information, excessive burden of works in appending notes and a lack of objectivity. In this study, we suggest a method which uses color and shape information of multimedia image partitions efficiently analyze a large amount of multimedia information. Partitions use field growth and union method. To extract color information, we use distinctive information which matches with a representative color from converting process from RGB(Red Green Blue) to HSI(Hue Saturation Intensity). Also, we use IMI(Improved Moment Invariants) which target to only outline pixels of an object and execute computing as shape information.

  • PDF