• Title/Summary/Keyword: 비디오 클립

Search Result 52, Processing Time 0.025 seconds

An Efficient Video Clip Matching Algorithm Using the Cauchy Function (커쉬함수를 이용한 효율적인 비디오 클립 정합 알고리즘)

  • Kim Sang-Hyul
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.5 no.4
    • /
    • pp.294-300
    • /
    • 2004
  • According to the development of digital media technologies various algorithms for video clip matching have been proposed to match the video sequences efficiently. A large number of video search methods have focused on frame-wise query, whereas a relatively few algorithms have been presented for video clip matching or video shot matching. In this paper, we propose an efficient algorithm to index the video sequences and to retrieve the sequences for video clip query. To improve the accuracy and performance of video sequence matching, we employ the Cauchy function as a similarity measure between histograms of consecutive frames, which yields a high performance compared with conventional measures. The key frames extracted from segmented video shots can be used not only for video shot clustering but also for video sequence matching or browsing, where the key frame is defined by the frame that is significantly different from the previous frames. Experimental results with color video sequences show that the proposed method yields the high matching performance and accuracy with a low computational load compared with conventional algorithms.

  • PDF

Design of PPL Service Platform for Smart Travelling based on Location (스마트 관광용 위치기반의 PPL 서비스 플랫폼 설계)

  • Kang, Min-Goo
    • Smart Media Journal
    • /
    • v.5 no.4
    • /
    • pp.138-142
    • /
    • 2016
  • In this paper, a smart travel service platform is proposed with PPL(Product Placement) database based on the location of TV viewer who is 's marking by smart devices. This platform is designed with the active PUSH and smart kiosk signage with video clip of LTE/beacon's places. As a result, this PPL-DB platform is inter-worked for the PPL database of category, location, product, favor with interactive tagging in pictures and videos.

Smart Platform Design for Location based Drama Contents Services (위치기반의 드라마 콘텐츠서비스용 스마트 플랫폼 설계)

  • Choi, Youngho
    • Journal of Internet Computing and Services
    • /
    • v.18 no.1
    • /
    • pp.37-41
    • /
    • 2017
  • In this paper, a platform was proposed that can service the streaming of location based real-time video-clip for smart-travel-services to work with PPL(Product Placement). The location information of drama like as LTE GPS and Beacon were used to provide the drama video with the PUSH service. And PPL DB with the attributes like as picture, video, music and URI(Uniform resource Identifier) was designed. As a result, this platform could provide the location based video streaming service that could replace the original PPL properties, color or shape, with the other properties by the interactive tagging the PPL DB in drama scenes. The proposed platform could provide the location based real-time video streaming service that can alter the PPL properties with the request of service provider.

Audio Texture Synthesis using EM Optimization (EM 최적화를 이용한 오디오 텍스처 합성)

  • Roe, Chang-Hwan;Yoo, Min-Joon;Lee, In-Kwon
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.274-280
    • /
    • 2007
  • 오디오 텍스처 합성은 주어진 짧은 오디오 클립으로부터 임의의 길이를 갖는 새로운 오디오 클립을 생성하는 방법이다. 이는 애니메이션이나 영화에서 비디오와 정확한 동기화를 이루는 사운드 효과를, 혹은 임의의 길이를 갖는 배경 음악을 효율적으로 만들 수 있는 방법이다. 최근 Lie Lu는 주어진 예제 오디오 클립을 여러 조각으로 나눈 후, 이 조각들을 그래프 형태로 연결하고, 생성된 그래프를 탐색하면서 임의의 길이를 가지는 오디오 클립을 합성하는 방법을 제안하였다. 비교적 간단한 방법으로도 원본 오디오 클립과 비슷한 느낌의 오디오 클립을 만들어낸다는 장점이 있지만, 이는 원본 내의 여러 오디오 조각들이 단지 지속적으로 연결되는 형태로 합성되기 때문에 종종 반복되는 느낌을 받는다는 단점이 있다. 본 논문에서는 Lie Lu의 방법과는 달리 주어진 예제 오디오 클립을 직접 합성함으로써 반복성을 줄이면서도 원본과 비슷한 느낌을 갖는 결과 오디오 클립을 생성할 수 있는 방법을 제안한다. 특히 본 논문에서는 정확한 합성을 위하여 EM 최적화 방법을 사용한다. 본 논문에서 제안하는 합성 방법은 먼저 예제 오디오 클립을 일정 단위로 나누고 이렇게 나눠진 부분들을 일정 길이만큼 서로 겹쳐지게 합성하여 임의의 길이의 오디오 클립을 만든다. 그 후 만들어진 오디오 클립을 예제 오디오 클립과 부분 부분을 비교하여 확장된 오디오 클립과 최대한 비슷한 부분을 예제 오디오 클립에서 찾는다. 그 다음 찾아진 결과를 결과 오디오에 다시 합성하여 오디오 클립을 만든다. 이런 과정을 반복하여 최적화된 가장 적절한 결과값을 구한다. 이 결과는 분할된 부분들이 가장 자연스럽게 이어지는 결과가 된다. 본 논문에서는 최적화를 사용하여 오디오를 합성하기 때문에 합성 결과를 쉽게 조정할 수 있다는 장점이 있다. 최적화 문제에 특정 제약 조건을 넣음으로써 사용자가 원하는 부분의 음악이 결과 사운드의 특정 부분에 위치 할 수 있게 하고 이로써 특정 흐름을 만들어낼 수 있으며, 일부가 손실된 사운드 데이터의 복구를 가능하게 하는 등의 결과를 생성할 수 있다. EM 최적화를 사용한 오디오 텍스처 합성 방법은 기존의 합성 방법에 비해 질적인 측면에서 보다 좋은 결과를 생성할 수 있고, 비교적 반복이 덜한 패턴들을 만들어 낼 수 있다. 이를 입증하기 위해 이에 대한 사용자 설문 조사 결과가 제시된다.

  • PDF

Semantic Concept-based Video Transcoding Method and System (의미적 개념 기반 비디오 트랜스코딩 방법 및 시스템)

  • Jung Yong Ju;Kim Young Suk;Thang Truong Cong;Ro Yong Man;Kim Tae-hee;Kim Jea-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2004.11a
    • /
    • pp.59-63
    • /
    • 2004
  • 본 논문에서는 다양한 사용자 환경에서 비디오의 범용적인 서비스를 위한 다차원 비디오 트랜스코딩의 판단에 관하여 논한다 효율적인 판단을 위해 여러 영화 비디오 클립들을 비슷한 의미적 개념을 가지는 비디오들과 비슷한 장면 복잡도를 가지는 비디오들로 분류하고, 각 종류별로 주관적인 테스트(subjective test)를 실시하여 비디오 트랜스코딩에 있어서 사용자인지(perception)의 특성을 분석한다. 이렇게 분석된 인간의 시각 특성들을 이용해 비디오 트랜스코딩 판단 궤적(trajectory)을 만들고 이를 다차원 비디오 트랜스코딩 판단 시에 적용하기 위한 방법을 제안한다.

  • PDF

Influence of Video Clip-based Pedagogical Reasoning Activity on Elementary Preservice Teachers' Science Lesson Planning (비디오 클립을 활용한 교육적 추론 활동이 초등 예비교사의 과학 수업 계획에 미치는 영향)

  • Song, Nayoon;Yoon, Hye-Gyoung
    • Journal of Korean Elementary Science Education
    • /
    • v.43 no.1
    • /
    • pp.170-184
    • /
    • 2024
  • This study focused on the practical research needed to improve elementary school science lesson plans. Specifically, a video clip-based pedagogical reasoning activity that included elementary student misconceptions was presented and the influences of this activity on preservice teachers' science lesson planning were assessed. First, the eight preservice teacher participants were asked to write a lesson plan for a dissolution and solution unit, after which a first semi-structured interview was conducted. Then, the participants participated in a video clip-based pedagogical reasoning activity. Based on the activity results, the participants revised their previously planned lessons, and second semi-structured interviews were conducted. The data from the preservice teachers' lesson plans and interview transcripts were analyzed using a constant comparative method to investigate the lesson plan changes. It was found that after the video clip-based pedagogical reasoning activity, the preservice teacher tightened the activity or changed the material to understand the students' thinking processes. In addition, they supplemented their goals and assessment criteria to accommodate the diverse students' thinking. Some also specified motivational strategies that considered student interests, motivation, and possible misconceptions. However, some preservice teachers still set goals that did not sufficiently account for student misconceptions and some planned the student assessments based only on the learning goals rather than the students' thinking. The few preservice teachers were able to develop motivational strategies that considered interest, motivation, and misconceptions. The preservice teachers claimed that they had difficulty predicting the misconceptions and connecting these to the lesson content. Discussions were then held to assist the preservice teachers to consider possible student misconceptions when planning their lessons.

Generation of Video Clips Utilizing Shot Boundary Detection (샷 경계 검출을 이용한 영상 클립 생성)

  • Kim, Hyeok-Man;Cho, Seong-Kil
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.7 no.6
    • /
    • pp.582-592
    • /
    • 2001
  • Video indexing plays an important role in the applications such as digital video libraries or web VOD which archive large volume of digital videos. Video indexing is usually based on video segmentation. In this paper, we propose a software tool called V2Web Studio which can generate video clips utilizing shot boundary detection algorithm. With the V2Web Studio, the process of clip generation consists of the following four steps: 1) Automatic detection of shot boundaries by parsing the video, 2) Elimination of errors by manually verifying the results of the detection, 3) Building a modeling structure of logical hierarchy using the verified shots, and 4) Generating multiple video clips corresponding to each logically modeled segment. The aforementioned steps are performed by shot detector, shot verifier, video modeler and clip generator in the V2Web Studio respectively.

  • PDF

Music Video Research of Photograph Image (사진적 이미지의 뮤직비디오 연구)

  • Kang, Hong Gue
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.2
    • /
    • pp.251-256
    • /
    • 2016
  • The music video was produced by the multimedia type of a video clip by adding the image to match it with the release of audio recordings. mass production. Although originally it started as a means of promoting music as mere receive attention as the main content of the music cable broadcast M-TV began mass production. The 21st century has used the technology in various fields, including animated films and live action films, documentaries smart phone era. Among attempts to analyze their work tends to center the photographer and music video director Anton Corbijin and Stephen Sednaoui representing a photographic image of a music video

Similar video streaming searching with SURF descriptors (SURF 특징점을 이용한 유사 비디오 스트림 검색)

  • Kim, Tae-Suk;Shim, Kyu-Seok;Lee, Jeong-Hun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.81-84
    • /
    • 2011
  • 최근 디지털 비디오는 다양한 멀티미디어 어플리케이션을 이용하여 인터넷을 통해 스트림 동영상으로 전송 되고 있다. 이러한 영향으로 비디오 영상을 검색하는 동영상 검색엔진의 필요성이 크게 증가하였다. 기존의 비디오 이미지 처리에는 전체적 특징을 이용한 비디오 검색을 사용하여 완전히 동일한 동영상을 찾는 것은 가능하였지만, 유사한 동영상을 찾는 것은 불가능하였다. 본 논문에서는 유사한 동영상들은 서로 비슷한 부문이 많이 존재한다는 점에 착안하여 동영상 클립을 키 프레임 단위로 나누어 각 키 프레임의 지역 특징을 사용해, 각 특징들 간의 가중치 있는 최대 이분 매치를 이용한 유사도 측정을 통해 비슷한 동영상 검색할 수 있게 하였다. 실험 결과 만족할 만한 성능으로 유사한 동영상 영상을 검색해 내는 것을 확인 할 수 있었다.

Emotion-based Video Scene Retrieval using Interactive Genetic Algorithm (대화형 유전자 알고리즘을 이용한 감성기반 비디오 장면 검색)

  • Yoo Hun-Woo;Cho Sung-Bae
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.10 no.6
    • /
    • pp.514-528
    • /
    • 2004
  • An emotion-based video scene retrieval algorithm is proposed in this paper. First, abrupt/gradual shot boundaries are detected in the video clip representing a specific story Then, five video features such as 'average color histogram' 'average brightness', 'average edge histogram', 'average shot duration', and 'gradual change rate' are extracted from each of the videos and mapping between these features and the emotional space that user has in mind is achieved by an interactive genetic algorithm. Once the proposed algorithm has selected videos that contain the corresponding emotion from initial population of videos, feature vectors from the selected videos are regarded as chromosomes and a genetic crossover is applied over them. Next, new chromosomes after crossover and feature vectors in the database videos are compared based on the similarity function to obtain the most similar videos as solutions of the next generation. By iterating above procedures, new population of videos that user has in mind are retrieved. In order to show the validity of the proposed method, six example categories such as 'action', 'excitement', 'suspense', 'quietness', 'relaxation', 'happiness' are used as emotions for experiments. Over 300 commercial videos, retrieval results show 70% effectiveness in average.