• Title/Summary/Keyword: 하이라이트 검출

Search Result 27, Processing Time 0.023 seconds

Highlight Detection Using Photometric Stereo and Object Reconstruction Using Difference Image (측광입체시법을 이용한 하이라이트 검출과 농담 차이를 이용한 물체 복원)

  • Bae, Cheol-Min;Mun, Yeong-Sik
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.4
    • /
    • pp.1132-1140
    • /
    • 1997
  • In many vision tasks of the major obstacles is the specular highkight of smoth objects, which causes a misinterpretation of objects.This paper presents an dffcient algorithm for highight detection and object reconstruction, blsed on the theory of photometric stereo in which the location of highilight changes as the position of illumination source changes.Two images, referred to as base image and reference image.are sequentially taken with two different positionhs of the two images.The difference image is thresholded to detct the specular spike of the highlight.Then the specu-lar lobe around the specular spike is detected to reconstruct the object.The proposed algorithm can be applied to metals and dielectrics, regardlless of the surface chracteristics.This method can also be aplied to the case when the background is brighter than the object.

  • PDF

SEMANTIC EVENT DETECTION FOR CONTENT-BASED HIGHLIGHT SUMMARY (내용 기반 하이라이트 요약을 위한 의미 있는 이벤트 검출)

  • Kim, Cheon-Seog;Bae, Beet-Nara;Thanh, Nguyen-Ngoc;Ro, Yong-Man
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11a
    • /
    • pp.73-76
    • /
    • 2002
  • 비디오 하이라이트 요약을 위해 내용기반에 의한 의미 있는 이벤트의 검출 방법에 대해 논하였다. 제안된 방법은 비디오 파싱을 포함한 5개의 단계로 구성 되었고, 다수의 기술자가 하위 레벨 특징들의 추출과 정확한 이벤트 검출을 위해 사용 되었다. 특징의 추출에 사용하는 샷과 키 프레임은 이벤트 검출에 힌트가 되는 부분만 사용함으로써 계산 복잡도를 줄였다. 각 샷은 사전에 정의된 추론 방법에 의해 요소가 부여되고, 이들 샷들의 의미를 통합하여 하나의 이벤트가 구성 된다.

  • PDF

Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition (딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계)

  • Shin, Dong-Wook;Moon, NamMee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

Creation of Soccer Video Highlights Using Caption Information (자막 정보를 이용한 축구 비디오 하이라이트 생성)

  • Shin Seong-Yoon;Kang Il-Ko;Rhee Yang-Won
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.5 s.37
    • /
    • pp.65-76
    • /
    • 2005
  • A digital video is a very long data that requires large-capacity storage space. As such, prior to watching a long original video, video watchers want to watch a summarized version of the video. In the field of sports, in particular, highlights videos are frequently watched. In short, a highlights video allows a video watcher to determine whether the highlights video is well worth watching. This paper proposes a scheme for creating soccer video highlights using the structural features of captions in terms of time and space. Such structural features are used to extract caption frame intervals and caption keyframes. A highlights video is created through resetting shots for caption keyframes, by means of logical indexing, and through the use of the rule for creating highlights. Finally, highlights videos and video segments can be searched and browsed in a way that allows the video watcher to select his/her desired items from the browser.

  • PDF

Subdivision Ensemble Model for Highlight Detection (하이라이트 검출을 위한 구간 분할 앙상블 모델)

  • Lee, Hansol;Lee, Gyemin
    • Journal of Broadcast Engineering
    • /
    • v.25 no.4
    • /
    • pp.620-628
    • /
    • 2020
  • Automatically predicting video highlight is an important task for media industry and streaming platform providers to save time and cost of manual video editing process. We propose a new ensemble model that combines multiple highlight detectors with each focusing on different parts of highlight events. Therefore, our model can capture more information-rich sections of events. Furthermore, the proposed model can extract improved features for highlight detection particularly when the train video set is small. We evaluate our model on e-sports and baseball videos.

An Scene Analysis is for Soccer Game Video using TV Broadcasting Pattern (방송 영상 패턴을 이용한 축구 경기 장면 분석)

  • 최영수;유채곤;이성환;황치정
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.490-492
    • /
    • 2000
  • 본 논문에서는 방송영상 특성을 이용한 축구 경기 장면 분석을 제안한다. 동영상의 프레임들을 분할하기 위해서는 급격한 장면 변화나 화면의 색상과 같은 화면의 형식적인 변화가 주요 결정사항이다. 그러나 축구경기와 같은 동영상에서의 하이라이트는 화면의 형식적인 변화와는 조금 다른 의미를 가진다. 그러므로, 축구 경기 동영상에서 하이라이트 부분을 검출하기 위해서는 장면의 변화와 더불어 화면의 의미를 해석할 필요가 있다. 본 논문에서는 축구 경기 동영상의 모든 프레임을 순차적으로 검사한다. 임의의 프레임에 대하여 RGB 정보의 분석을 통하여 영상의 구성내용을 파악한 후, 구성 내용의 위치와 분포를 참조하여 하이라이트 여부를 판단한다. 제안된 방법에서는 RGB 값의 변화 문제를 해결하기 위하여, 주 RGB 범위 군집화(Dominant RGB Grouping) 방법을 통하여 임의의 영상에서 RGB 값의 변화에 최대한 덜 민감한 방법으로 대상의 RGB 정보를 취득할 수 있는 방법을 사용하였다.

  • PDF

Synthesis and Classification of Active Sonar Target Signal Using Highlight Model (하이라이트 모델을 이용한 능동소나 표적신호의 합성 및 인식)

  • Kim, Tae-Hwan;Park, Jeong-Hyun;Nam, Jong-Geun;Lee, Su-Hyung;Bae, Keun-Sung
    • The Journal of the Acoustical Society of Korea
    • /
    • v.28 no.2
    • /
    • pp.135-140
    • /
    • 2009
  • In this paper, we synthesized active sonar target signals based on highlights model, and then carried out target classification using the synthesized signals. If the target aspect angle is changed, the different signals are synthesized. To know the result, two different experiments are done. First, The classification results with respect to each aspect angle are shown. Second, the results in two group in aspect angle are acquired. Time domain feature extraction is done using matched filter and envelope detection. It shows the pattern of each highlights. Artificial neural networks and multi-class SVM are used for classifying target signals.

Salient Region Detection Algorithm for Music Video Browsing (뮤직비디오 브라우징을 위한 중요 구간 검출 알고리즘)

  • Kim, Hyoung-Gook;Shin, Dong
    • The Journal of the Acoustical Society of Korea
    • /
    • v.28 no.2
    • /
    • pp.112-118
    • /
    • 2009
  • This paper proposes a rapid detection algorithm of a salient region for music video browsing system, which can be applied to mobile device and digital video recorder (DVR). The input music video is decomposed into the music and video tracks. For the music track, the music highlight including musical chorus is detected based on structure analysis using energy-based peak position detection. Using the emotional models generated by SVM-AdaBoost learning algorithm, the music signal of the music videos is classified into one of the predefined emotional classes of the music automatically. For the video track, the face scene including the singer or actor/actress is detected based on a boosted cascade of simple features. Finally, the salient region is generated based on the alignment of boundaries of the music highlight and the visual face scene. First, the users select their favorite music videos from various music videos in the mobile devices or DVR with the information of a music video's emotion and thereafter they can browse the salient region with a length of 30-seconds using the proposed algorithm quickly. A mean opinion score (MOS) test with a database of 200 music videos is conducted to compare the detected salient region with the predefined manual part. The MOS test results show that the detected salient region using the proposed method performed much better than the predefined manual part without audiovisual processing.

Noise Robust Baseball Event Detection with Multimodal Information (멀티모달 정보를 이용한 잡음에 강인한 야구 이벤트 시점 검출 방법)

  • Young-Ik Kim;Hyun Jo Jung;Minsoo Na;Younghyun Lee;Joonsoo Lee
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.136-138
    • /
    • 2022
  • 스포츠 방송/미디어 데이터에서 특정 이벤트 시점을 효율적으로 검출하는 방법은 정보 검색이나 하이라이트, 요약 등을 위해 중요한 기술이다. 이 논문에서는, 야구 중계 방송 데이터에서 투구에 대한 타격 및 포구 이벤트 시점을 강인하게 검출하는 방법으로, 음향 및 영상 정보를 융합하는 방법에 대해 제안한다. 음향 정보에 기반한 이벤트 검출 방법은 계산이 용이하고 정확도가 높은 반면, 영상 정보의 도움 없이는 모호성을 해결하기 힘든 경우가 많이 발생한다. 특히 야구 중계 데이터의 경우, 투수의 투구 시점에 대한 영상 정보를 활용하여 타격 및 포구 이벤트 검출의 정확도를 보다 향상시킬 수 있다. 이 논문에서는 음향 기반의 딥러닝 이벤트 시점 검출 모델과 영상 기반의 보정 방법을 제안하고, 실제 KBO 야구 중계 방송 데이터에 적용한 사례와 실험 결과에 대해 기술한다.

  • PDF

Semantic Event Detection and Summary for TV Golf Program Using MPEG-7 Descriptors (MPEG-7 기술자를 이용한 TV 골프 프로그램의 이벤트검출 및 요약)

  • 김천석;이희경;남제호;강경옥;노용만
    • Journal of Broadcast Engineering
    • /
    • v.7 no.2
    • /
    • pp.96-106
    • /
    • 2002
  • We introduce a novel scheme to characterize and index events in TV golf programs using MPEG-7 descriptors. Our goal is to identify and localize the golf events of interest to facilitate highlight-based video indexing and summarization. In particular, we analyze multiple (low-level) visual features using domain-specific model to create a perceptual relation for semantically meaningful(high-level) event identification. Furthermore, we summarize a TV golf program with TV-Anytime segmentation metadata, a standard form of an XML-based metadata description, in which the golf events are represented by temporally localized segments and segment groups of highlights. Experimental results show that our proposed technique provides reasonable performance for identifying a variety of golf events.