• Title/Summary/Keyword: Video summarization

검색결과 60건 처리시간 0.022초

음향학적 자질을 활용한 비디오 스피치 요약의 자동 추출과 표현에 관한 연구 (Investigating an Automatic Method for Summarizing and Presenting a Video Speech Using Acoustic Features)

  • 김현희
    • 정보관리학회지
    • /
    • 제29권4호
    • /
    • pp.191-208
    • /
    • 2012
  • 스피치 요약을 생성하는데 있어서 두 가지 중요한 측면은 스피치에서 핵심 내용을 추출하는 것과 추출한 내용을 효과적으로 표현하는 것이다. 본 연구는 강의 자료의 스피치 요약의 자동 생성을 위해서 스피치 자막이 없는 경우에도 적용할 수 있는 스피치의 음향학적 자질 즉, 스피치의 속도, 피치(소리의 높낮이) 및 강도(소리의 세기)의 세 가지 요인을 이용하여 스피치 요약을 생성할 수 있는지 분석하고, 이 중 가장 효율적으로 이용할 수 있는 요인이 무엇인지 조사하였다. 조사 결과, 강도(최대값 dB과 최소값 dB간의 차이)가 가장 효율적인 요인으로 확인되었다. 이러한 강도를 이용한 방식의 효율성과 특성을 조사하기 위해서 이 방식과 본문 키워드 방식간의 차이를 요약문의 품질 측면에서 분석하고, 이 두 방식에 의해서 각 세그먼트(문장)에 할당된 가중치간의 관계를 분석해 보았다. 그런 다음 추출된 스피치의 핵심 세그먼트를 오디오 또는 텍스트 형태로 표현했을 때 어떤 특성이 있는지 이용자 관점에서 분석해 봄으로써 음향학적 특성을 이용한 스피치 요약을 효율적으로 추출하여 표현하는 방안을 제안하였다.

실시간 뇌파반응을 이용한 주제관련 영상물 쇼트 자동추출기법 개발연구 (Automatic Extraction Techniques of Topic-relevant Visual Shots Using Realtime Brainwave Responses)

  • 김용호;김현희
    • 한국멀티미디어학회논문지
    • /
    • 제19권8호
    • /
    • pp.1260-1274
    • /
    • 2016
  • To obtain good summarization algorithms, we need first understand how people summarize videos. 'Semantic gap' refers to the gap between semantics implied in video summarization algorithms and what people actually infer from watching videos. We hypothesized that ERP responses to real time videos will show either N400 effects to topic-irrelevant shots in the 300∼500ms time-range after stimulus on-set or P600 effects to topic-relevant shots in the 500∼700ms time range. We recruited 32 participants in the EEG experiment, asking them to focus on the topic of short videos and to memorize relevant shots to the topic of the video. After analysing real time videos based on the participants' rating information, we obtained the following t-test result, showing N400 effects on PF1, F7, F3, C3, Cz, T7, and FT7 positions on the left and central hemisphere, and P600 effects on PF1, C3, Cz, and FCz on the left and central hemisphere and C4, FC4, P8, and TP8 on the right. A further 3-way MANOVA test with repeated measures of topic-relevance, hemisphere, and electrode positions showed significant interaction effects, implying that the left hemisphere at central, frontal, and pre-frontal positions were sensitive in detecting topic-relevant shots while watching real time videos.

내용기반 비디오 요약을 위한 효율적인 얼굴 객체 검출 (An Efficient Face Region Detection for Content-based Video Summarization)

  • 김종성;이순탁;백중환
    • 한국통신학회논문지
    • /
    • 제30권7C호
    • /
    • pp.675-686
    • /
    • 2005
  • 본 논문에서는 효율적인 얼굴 영역 검출 기법을 제안하고 얼굴 객체 검출을 통해 인물 기반의 비디오 시스템을 제공한다. 비디오 분할을 위해 비디오 시퀀스로부터 장면 전환점을 검출하고 분할된 장면들로부터 대표 프레임을 선정한다. 대표 프레임은 인접 프레임 간 변화량이 가장 적은 프레임으로 선정하였으며 추출된 대표 프레임에 대해서 얼굴 영역 검출 알고리즘을 적용하여 등장인물을 포함하는 프레임들을 정보로 제공한다. 얼굴영역 검출을 위해 피부색의 통계적 특성을 이용한 Bayes 분류기를 이용한다. 피부색 검출 결과 영상으로부터 수직 및 수평 투영 기법을 이용하여 영상 분할을 수행하고 후보군들을 생성한다. 생성된 후보군 중 오검출 영역을 최소화하기 위해서 이진 분류 나무(CART)를 이용하여 분류기를 생성한다. 특징 값으로는 SGLD(spatial gray level dependence) 매트릭스로부터 Inertial, Inverse Difference, Correlation 등의 질감 정보를 이용하여 최적의 이진 분류 나무를 생성한다. 실험 결과 제안된 얼굴 영역 검출 알고리즘은 복잡하고 다양한 배경에서도 우수한 성능을 보였으며, 얼굴 객체를 포함하는 프레임들을 비디오 정보로 제공한다. 제안하는 시스템은 향후 화자 인식 기법을 이용하여 등장인물 기반의 비디오 분석 및 에 활용될 수 있을 것이다.

은닉 마르코브 모델을 이용한 비디오 요약 시스템 (Video Summarization Using Hidden Markov Model)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권6호
    • /
    • pp.1175-1181
    • /
    • 2004
  • 본 논문에서는 비디오 검색을 위한 비디오 사진 분류 시스템을 제안하였다. 제안된 시스템은 3개의 모듈인 특징 추출, 은닉 마르코브 모델 생성, 그리고 비디오 사진 분류로 구성되어 있다. 같은 등급에 속한 비디오 화면들이 반드시 유사하지 않으므로 견실한 Hidden Markov Model을 구성하기 위해서 는 충분한 학습이 필요하였다. 제안된 시스템은 텔레비전 야구 중계 방송의 비디오 화면을 15가지 등급으로 분류하여 분석 및 하는 실험을 한 결과 평균 84.72%의 인식률을 얻을 수 있었다.

MPEG-21 DIP 기반 비디오 요약 서비스 (Video Summarization Service based on MPEG-21 DIP)

  • 류지웅;김문철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.199-201
    • /
    • 2003
  • MPEG-21 환경에서의 DI(Digital Item)은 MPEG-21 프레임워크 내에서 표준화된 표현 형식, 식별 체계, 서술 형식을 따르는 구조화된 디지털 객체이며, 유통, 처리의 최소 단위이다 따라서. 이러한 DI가 MPEG-21 멀티미디어 프레임워크 환경에서 사용자 터미널에 전달되었을 때 어떻게 처리되어야 될 것인지를 규정하는 것은 매우 중요한 과제이며. 이와 관련한 기술이 DIP(Digital Item Processing)이다. 본 논문에서는 DIP의 한 응용 예로서 멀티미디어 콘텐츠를 계층적으로 기술하는 Video Summary의 응용 방안에 대한 연구 결과를 제시하고자 한다.

  • PDF

이용자 태그를 활용한 비디오 스피치 요약의 자동 생성 연구 (Investigating an Automatic Method in Summarizing a Video Speech Using User-Assigned Tags)

  • 김현희
    • 한국문헌정보학회지
    • /
    • 제46권1호
    • /
    • pp.163-181
    • /
    • 2012
  • 본 연구는 스피치 요약의 알고리즘을 구성하기 위해서 방대한 스피치 본문의 복잡한 분석 없이 적용될 수 있는 이용자 태그 기법, 문장 위치 및 문장 중복도 제거 기법의 효율성을 분석해 보았다. 그런 다음, 이러한 분석 결과를 기초로 하여 스피치 요약 방법을 구성, 평가하여 효율적인 스피치 요약 방안을 제안하는 것을 연구 목적으로 하고 있다. 제안된 스피치 요약 방법은 태그 및 표제 키워드 정보를 활용하고 중복도를 최소화하면서 문장 위치에 대한 가중치를 적용할 수 있는 수정된 Maximum Marginal Relevance 모형을 사용하여 구성하였다. 제안된 요약 방법의 성능은 스피치 본문의 단어 빈도 및 단어 위치 정보를 적용하여 상대적으로 복잡한 어휘 처리를 한 Extractor 시스템의 성능과 비교되었다. 비교 결과, 제안된 요약 방법을 사용한 경우가 Extractor 시스템의 경우 보다 평균 정확률은 통계적으로 유의미한 차이를 보이며 더 높았고, 평균 재현율은 더 높았지만 통계적으로 유의미한 차이를 보이지는 못했다.

뇌파정보를 활용한 영상물 요약 알고리즘 설계와 평가 (Design and Evaluation of Video Summarization Algorithm based on EEG Information)

  • 김현희;김용호
    • 한국문헌정보학회지
    • /
    • 제52권4호
    • /
    • pp.91-110
    • /
    • 2018
  • 본 연구는 비디오 스킴의 자동 생성을 위한 비디오 요약 알고리즘을 제안하고 이를 평가하였다. 제안된 알고리즘은 ERP(Event Related Potentials) 기반의 주제 적합성 모형, MMR(Maximal Marginal Relevance) 기법 및 판별분석기법을 사용하여 구현하였다. 제안한 ERP/MMR 기반 알고리즘을 이용하여 구성한 비디오 스킴의 품질과 유용성을 내재적 및 외재적 평가를 통해서 검증하였다. 내재적 및 외재적 평가에서 ERP/MMR 방법들의 평가 점수들은 각각 경쟁 기준으로 사용한 SBD(Shot Boundary Detection) 방법의 평가 점수 보다 유의미한 차이를 보이며 높게 나왔다. 그러나 이 두 평가에서 ERP/MMR(${\lambda}=0.6$) 방법의 평가 점수와 ERP/MMR(${\lambda}=1.0$) 방법의 평가 점수 간에 통계적으로 유의미한 차이는 없는 것으로 나타났다.

장면전환검출을 이용한 교양비디오 개요 검색 시스템 (The Abstraction Retrieval System of Cultural Videos using Scene Change Detection)

  • 강오형;이지현;이양원
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.761-766
    • /
    • 2005
  • 본 논문에서는 교양 비디오 데이터베이스 시스템을 구축하기 위한 비디오 모델을 제안한다. 먼저, 교양 비디오의 효율적인 색인화와 검색을 위하여 교양 비디오를 의미 있는 단위로 분할하는 효율적인 장면 전환 검출 기법을 사용하였다 비디오가 대용량이며 장시간의 재생이 필요하다는 특징 때문에 전체 비디오를 시청해야하는 문제점이 있다. 이 문제점을 해결하기 위해 교양 비디오의 개요를 추출하여 시청자들에게 시간을 절약할 수 있고, 비디오 선택의 폭을 넓히도록 하였다. 비디오 개요는 개요 생성 규칙을 설정하여 중요 이벤트가 발생한 장면들을 요약한 형태이다.

Automatic Poster Generation System Using Protagonist Face Analysis

  • Yeonhwi You;Sungjung Yong;Hyogyeong Park;Seoyoung Lee;Il-Young Moon
    • Journal of information and communication convergence engineering
    • /
    • 제21권4호
    • /
    • pp.287-293
    • /
    • 2023
  • With the rapid development of domestic and international over-the-top markets, a large amount of video content is being created. As the volume of video content increases, consumers tend to increasingly check data concerning the videos before watching them. To address this demand, video summaries in the form of plot descriptions, thumbnails, posters, and other formats are provided to consumers. This study proposes an approach that automatically generates posters to effectively convey video content while reducing the cost of video summarization. In the automatic generation of posters, face recognition and clustering are used to gather and classify character data, and keyframes from the video are extracted to learn the overall atmosphere of the video. This study used the facial data of the characters and keyframes as training data and employed technologies such as DreamBooth, a text-to-image generation model, to automatically generate video posters. This process significantly reduces the time and cost of video-poster production.

광범위한 지역 감시시스템에서의 행동기반 비디오 요약 (Activity-based video summarization in a wide-area surveillance system)

  • 권혜영;이윤미;이경미
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.719-724
    • /
    • 2007
  • 본 논문에서는 광범위한 지역을 감시하기 위해 설치된 여러 대의 카메라로부터 획득된 비디오에 대해 행동을 기반으로 한 비디오 요약 시스템을 제안한다. 제안된 시스템은 시야가 겹쳐지지 않은 다수의 CCTV 카메라를 통해서 촬영한 비디오들을 30분 단위로 나누어 비디오 데이터베이스를 구축하여 시간별, 카메라별 비디오 검색이 가능하다. 또한 비디오에서 키프레임을 추출하여 카메라별, 사람별, 행동별로 비디오를 요약할 수 있도록 하였다. 또한 임계치에 따라 키프레임 검색정도를 조절함으로써 비디오 요약정도를 조절할 수 있다. in. out, stay, left, right, forward, backward와 관련된 11가지 행동을 추출하여 요약된 정보를 가지고 현재 사람의 행동이 어떤 영역에서 어떤 방향으로 움직이고 있는 지에 대한 정보를 보여줌으로써 더 자세히 행동추적을 할 수 있다. 또한 카메라 3대에 대한 전체적인 키프레임에 대한 행동별 통계를 통해서 감시지역의 행동기반 이벤트를 간단히 확인해 볼 수 있다.

  • PDF