• 제목/요약/키워드: Keyframe analysis

검색결과 11건 처리시간 0.022초

Improved Quality Keyframe Selection Method for HD Video

  • Yang, Hyeon Seok;Lee, Jong Min;Jeong, Woojin;Kim, Seung-Hee;Kim, Sun-Joong;Moon, Young Shik
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권6호
    • /
    • pp.3074-3091
    • /
    • 2019
  • With the widespread use of the Internet, services for providing large-capacity multimedia data such as video-on-demand (VOD) services and video uploading sites have greatly increased. VOD service providers want to be able to provide users with high-quality keyframes of high quality videos within a few minutes after the broadcast ends. However, existing keyframe extraction tends to select keyframes whose quality as a keyframe is insufficiently considered, and it takes a long computation time because it does not consider an HD class image. In this paper, we propose a keyframe selection method that flexibly applies multiple keyframe quality metrics and improves the computation time. The main procedure is as follows. After shot boundary detection is performed, the first frames are extracted as initial keyframes. The user sets evaluation metrics and priorities by considering the genre and attributes of the video. According to the evaluation metrics and the priority, the low-quality keyframe is selected as a replacement target. The replacement target keyframe is replaced with a high-quality frame in the shot. The proposed method was subjectively evaluated by 23 votes. Approximately 45% of the replaced keyframes were improved and about 18% of the replaced keyframes were adversely affected. Also, it took about 10 minutes to complete the summary of one hour video, which resulted in a reduction of more than 44.5% of the execution time.

사용자 큐레이션을 위한 빅데이터 영상 분석 기법 비교 (Comparison of big data image analysis techniques for user curation)

  • 이현섭;김진덕
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.563-565
    • /
    • 2021
  • 최근 증가하는 콘텐츠 제공 서비스의 가장 큰 특징은 콘텐츠의 시간의 흐름에 따른 콘텐츠 증가량이 매우 크다는 것이다. 이에 따라 사용자 큐레이션의 중요성이 같이 증가하고 있으며 이를 구현하기 위한 여러 가지 기법들이 사용되고 있다. 본 논문에서는 영상 추천을 위한 기법 중 음성데이터 및 자막을 활용한 분석 기법과 키프레임 추출 기반 영상 비교 기법을 실제 빅데이터 영상 콘텐츠를 대상으로 구현, 적용한 결과에 대하여 비교한다. 또한, 비교결과를 통해 각 분석 기법이 적용될 수 있는 영상 콘텐츠 환경에 대하여 제안한다.

  • PDF

영상의 특정 의미를 반영하는 Key Frame의 추출 방법 (Finding focused key frames of a given meaning on video data)

  • 하종우;노정담;윤성웅;김민수;안창원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.85-88
    • /
    • 2022
  • 영상을 구성하는 프레임 중에 키프레임은 일반적으로 영상 정보를 효과적으로 요약하거나 용이한 분석을 위해 선정된다. 화상이 가진 의미는 인물/사물 등의 객체탐지를 통해 추출되는데, 기존의 키프레임 관련 연구는 영상이 가지는 의미를 반영하는 키프레임을 찾아내기 어렵다. 본 논문에서는 영상이 가지는 특정 의미가 있다고 할 때 이를 반영하는 키프레임을 효과적으로 추출하는 방법을 실험적으로 탐구하였다. 구체적으로 영상을 통할하는 의미를 피로라고 가정하고 영상의 졸음 인식 관련 연구에 사용되는 DDD 데이터셋을 이용하여 효과적인 키프레임 추출 기법을 적용해 보았으며, 실험 결과 졸음이라는 특정 정보에 대한 해석을 도울 수 있는 의미 있는 요약을 제공하는 키프레임들을 효과적으로 추출하는 분석 기법을 찾아낼 수 있었다.

  • PDF

압축된 영상 시퀀스에서 내용 기반 색인을 위한 장면 분석 및 키 프레임 추출 (The Scene Analysis and Keyframe Extraction for Content-Based Indexing on Compressed Image Sequence)

  • 오상헌;김상렬;김주도;이근영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 추계종합학술대회 논문집
    • /
    • pp.605-608
    • /
    • 1999
  • In this paper, we proposed several scene analysis algorithms. These algorithms using image difference and histogram operate on the sequence of DC coefficient which is extracted from Motion JPEG or MPEG without full-frame decompression. Since DC sequence has the most information of full frame while it has reduced data. Experimental results show less than 1/64 of full frame analysing complexity and exactly analyze scene changes and extract key frames.

  • PDF

음악 분석을 이용한 클라이언트 중심의 키프레임 생성 시스템 (Client-driven Animated Keyframe Generation System Using Music Analysis)

  • 무즈타바 굴람;김선대;박은수;김승환;유재성;류은석
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.173-175
    • /
    • 2019
  • Animated images formats such as WebP are highly portable graphics formats that are being used everywhere on the Internet. Despite their small sizes and duration, WebP image previews the video without watching the entire content with minimum bandwidth. This paper proposed a novel method to generate personalized WebP images in the client side using its computation resources. The proposed system automatically extracts the WebP image from climax point using music analysis. Based on user interest, the system predicts the genre using Convolutional Neural Network (CNN). The proposed method can easily integrate with streaming platforms such as YouTube, Netflix, Hulu, and others.

  • PDF

통계적 분석 기반 불법 복제 비디오 영상 감식 방법 (A Novel Video Copy Detection Method based on Statistical Analysis)

  • 조혜정;김지은;손채봉;정광수;오승준
    • 방송공학회논문지
    • /
    • 제14권6호
    • /
    • pp.661-675
    • /
    • 2009
  • 인터넷과 멀티미디어 기술이 발달함에 따라 무분별한 불법 콘텐츠들의 유통으로 인한 저작권 침해가 심각한 사회적 문제로 대두되고 있어, 불법 복제 영상을 검출하는 시스템의 개발이 시급하다. 본 논문에서는 공간영역 상에서 다양하게 변형된 복제 영상과 원본 영상간의 통계적 특성을 이용하여 그 유사도를 측정하고 복제 여부를 판단하는 계층적 구조의 불법 비디오 감식 방법을 제안한다. 영상의 대표적 특성인 휘도 성분에 따라 순위를 매김으로써 공간적 변형에 영향을 받지 않도록 하였으며, 데이터베이스에 저장된 방대한 양의 영상들에 대한 검색시간과 계산량을 줄이기 위해 순위 표본 프레임을 이용하여 유사한 후보 영상군을 추출한다. 이러한 후보 영상군을 대상으로 일반적인 불법 복제 비디오의 형태를 감안하여 각 프레임의 가장자리에 위치한 검은색 영역을 제외함과 동시에 영상의 중앙 영역을 포함하여 통계 검정을 이용함으로써 복제 여부를 판단한다. 실험 결과, 제안하는 방법은 이전 방법에 비해 순위 표본 프레임의 정확도가 유사하면서 선택된 순위 표본 프레임 수가 약 61% 가량 적게 추출하여 특징 정보에 저장되는 메모리 양을 절약할 수 있었다. 또한 영상의 화질 열화, 대비 변형, 확대 및 축소, 화면비 변환, 자막 삽입 등 다양한 공간적 변형에도 포괄적으로 복제 여부를 판단할 수 있음을 실험을 통해 확인하였다.

3D 애니메이션 제작 과정에서 기술 및 예술적 표현요소 분석에 관한 연구 (A Study on the Analysis of Technique and Artistic Expression Factors in the Process of 3D Animation Production)

  • 백승만;조윤아
    • 디자인학연구
    • /
    • 제16권1호
    • /
    • pp.83-92
    • /
    • 2003
  • 최근 3D 애니메이션은 급속한 하드웨어와 소프트웨어의 기술적 발전에 힘입어 실사에 가까운 애니메이션 연출이 가능하게 되어 영화, 광고, 게임, 디지털 영상물 등의 엔터테인먼트적인 요소로 많이 사용되고 있다. 3D 애니메이션 제작과정은 전통적인 애니메이션과는 달리 다양한 제작기술과 표현요소를 요하게 된다. 3D 애니메이션 제작에서 제작기술과 표현요소는 각각의 요소로 작용하는 것이 아니라, 서로 결합하여 제작하여야만 완성도가 높은 애니메이션을 얻을 수가 있다. 이에 본 고는 3D 애니메이션 Computer Process에 의한 작업 과정을 하드웨어와 소프트웨어를 바탕으로 한 기술적인 표현방식과 미학적, 조형적, 디자인적, 회화적 요소를 바탕으로 한 예술적 표현요소를 분석하고 기술적인 완성도와 표현력이 있는 애니메이션을 제작하는 방법을 모색해 본다.

  • PDF

Automatic Poster Generation System Using Protagonist Face Analysis

  • Yeonhwi You;Sungjung Yong;Hyogyeong Park;Seoyoung Lee;Il-Young Moon
    • Journal of information and communication convergence engineering
    • /
    • 제21권4호
    • /
    • pp.287-293
    • /
    • 2023
  • With the rapid development of domestic and international over-the-top markets, a large amount of video content is being created. As the volume of video content increases, consumers tend to increasingly check data concerning the videos before watching them. To address this demand, video summaries in the form of plot descriptions, thumbnails, posters, and other formats are provided to consumers. This study proposes an approach that automatically generates posters to effectively convey video content while reducing the cost of video summarization. In the automatic generation of posters, face recognition and clustering are used to gather and classify character data, and keyframes from the video are extracted to learn the overall atmosphere of the video. This study used the facial data of the characters and keyframes as training data and employed technologies such as DreamBooth, a text-to-image generation model, to automatically generate video posters. This process significantly reduces the time and cost of video-poster production.

사용자 추천을 위한 교육용 동영상의 빅데이터 분석 기법 비교 (Big Data Analysis Method for Recommendations of Educational Video Contents)

  • 이현섭;김진덕
    • 한국정보통신학회논문지
    • /
    • 제25권12호
    • /
    • pp.1716-1722
    • /
    • 2021
  • 최근 동영상 콘텐츠 제공 서비스는 그 용량이 매우 증가하여 사용자 추천의 중요성이 증가하고 있다. 그리고 이러한 콘텐츠는 다양한 특성을 내포하고 있어 사용자가 지정한 키워드만으로 그 콘텐츠의 특징을 제대로 표현하기 어렵다. 그러므로 사용자가 정의한 키워드를 이용하는 기존의 추천 시스템은 개체의 특성을 제대로 반영하지 못하는 한계가 있다. 본 논문에서는 교육용 동영상 서비스 시스템의 콘텐츠 추천을 위한 기법 중 음성데이터 기반 자막을 이용한 분석과 영상의 키프레임을 이용한 영상 비교 기법의 효율성을 비교한다. 또한, 실험 결과를 통해 각 분석 기법이 효율적으로 활용될 수 있는 영상 콘텐츠의 유형 및 환경을 제안한다.

효과적인 인터랙티브 비디오 저작을 위한 얼굴영역 기반의 어노테이션 방법 (Annotation Method based on Face Area for Efficient Interactive Video Authoring)

  • 윤의녕;가명현;조근식
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.83-98
    • /
    • 2015
  • TV를 보면서 방송에 관련된 정보를 검색하려는 많은 시청자들은 정보 검색을 위해 주로 포털 사이트를 이용하고 있으며, 무분별한 정보 속에서 원하는 정보를 찾기 위해 많은 시간을 소비하고 있다. 이와 같은 문제를 해결하기 위한 연구로써, 인터랙티브 비디오에 대한 연구가 활발하게 진행되고 있다. 인터랙티브 비디오는 일반적인 비디오에 추가 정보를 갖는 클릭 가능한 객체, 영역, 또는 핫스팟을 동시에 제공하여 사용자와 상호작용이 가능한 비디오를 말한다. 클릭 가능한 객체를 제공하는 인터랙티브 비디오를 저작하기 위해서는 첫째, 증강 객체를 생성하고, 둘째, 어노테이터가 비디오 위에 클릭 가능한 객체의 영역과 객체가 등장할 시간을 지정하고, 셋째, 객체를 클릭할 때 사용자에게 제공할 추가 정보를 지정하는 과정을 인터랙티브 비디오 저작 도구를 이용하여 수행한다. 그러나 기존의 저작 도구를 이용하여 인터랙티브 비디오를 저작할 때, 객체의 영역과 등장할 시간을 지정하는데 많은 시간을 소비하고 있다. 본 논문에서는 이와 같은 문제를 해결하기 위해 유사한 샷들의 모임인 샷 시퀀스의 모든 샷에서 얼굴 영역을 검출한 샷 시퀀스 메타데이터 모델과 객체의 어노테이션 결과를 저장할 인터랙티브 오브젝트 메타데이터 모델, 그리고 어노테이션 후 발생될 수 있는 부정확한 객체의 위치 문제를 보완할 사용자 피드백 모델을 적용한 얼굴영역을 기반으로 하는 새로운 형태의 어노테이션 방법을 제안한다. 마지막으로 제안한 어노테이션 방법의 성능을 검증하기 위해서 인터랙티브 비디오 저작 시스템을 구현하여 기존의 저작도구들과 저작 시간을 비교하였고, 사용자 평가를 진행 하였다. 비교 분석 결과 평균 저작 시간이 다른 저작 도구에 비해 2배 감소하였고, 사용자 평가 결과 약 10% 더 유용한다고 평가 되었다.