• Title/Summary/Keyword: 비디오 분류

Search Result 275, Processing Time 0.028 seconds

Automatic Classification of Objectionable Videos Based on GoF Feature (GoF 특징을 이용한 유해 동영상 자동 분류)

  • Lee, Seung-Min;Lee, Ho-Gyun;Nam, Taek-Yong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.197-200
    • /
    • 2005
  • 본 논문은 유해한 동영상을 실시간으로 분석하고 차단하기 위하여, 동영상의 비주얼 특징으로서 그룹 프레임(Group of Frame) 특징을 추출하여 SVM 학습모델을 활용하는 유해 동영상 분류에 관한 것이다. 지금까지 동영상 분류에 관한 연구는 주로 입력 동영상을 뉴스, 스포츠, 영화, 뮤직 비디오, 상업 비디오 등 사전에 정의한 몇 개의 장르에 자동으로 할당하는 기술이었다. 그러나 이러한 분류 기술은 미리 정의한 장르에 따른 일반적인 분류 모델을 사용하기 때문에 분류의 정확도가 높지 않다. 따라서, 유해 동영상을 실시간으로 자동 분류하기 위해서는, 신속하고 효과적인 동영상 내용분석에 적합한 유해 동영상 특화의 특징 추출과 분류 모델 연구가 필요하다. 본 논문에서는 유해 동영상에 대하여 신속하고, 정확한 분류를 위하여 유해 동영상의 대표 특징으로서 그룹프레임 특징을 정의하고, 이를 추출하여 SVM 학습 모델을 생성하고 분류에 활용하는 매우 높은 성능의 분석 방법을 제시하였다. 이는 최근 인터넷 뿐만 아니라 다양한 매체를 통하여 급속도로 번지고 있는 유해 동영상 차단 분야에 적극 활용될 수 있을 것으로 기대된다.

  • PDF

학습된 선형 변환 기저를 이용한 VVC 잔자신호 변환

  • Kim, Nam-Uk;Lee, Yeong-Ryeol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.160-161
    • /
    • 2020
  • 본 논문에서는 비디오 코딩 잔차신호를 보다 효율적으로 변환하기 위하여 오프라인으로 잔차신호를 학습하여 RD(Rate Distortion) Cost를 기반으로 분류된 몇 가지 변환 기저들을 생성하고, 비디오 복호화 과정 중 잔차신호를 역변환을 수행할 때 주변의 복호화가 완료된 신호들을 이용하여 최적의 변환 기저를 선택하여 해당 변환 기저로 역변환을 수행하여 효율적으로 잔차신호를 압축하는 방법에 대해 제안한다. 변환 기저 생성에는 분류된 잔차신호들에 대하여 2 차원 혹은 1 차원 KLT를 계산함으로써 얻어내어진다. 제안하는 방법은 VTM(VVC Test Model) version 10에서 실험하였으며 약 0.5% 정도의 성능향상을 보인다.

  • PDF

News Video Editing System (뉴스비디오 편집시스템)

  • 고경철;이양원
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2000.10a
    • /
    • pp.421-425
    • /
    • 2000
  • The efficient researching of the News Video is require the development of video processing and editing technology to extract meaningful information from the Video data. The advanced information nations are researching the Video Editing System and recently they are concerned to research the perfect practical system. This paper represents the System that can extract and edit the meaningful information from the Video Data by the User demand through the Scene change detection and Editing system by the automatic/ passive classification and this system represents more efficient scene change detection algorithm which was selected by the user.

  • PDF

A Study of Motion Graphics Effects in Moving for Video Game Contents Projection (비디오 게임 콘텐츠 제작을 위한 모션그래픽 움직임 효과에 관한 연구)

  • Ju, Heon-Sik
    • 한국게임학회지
    • /
    • v.9 no.1
    • /
    • pp.15-23
    • /
    • 2012
  • In this paper, studied about an effect in motion graphics to make video game contents projects. Using the motion graphics to make video game contents projects was applied with various effects. The effects in motion graphics is divided in two ways that moving effects and a motion image effects. The various effects of motion graphics extremely increases the effects of the video game contents projects. The various effects in the motion graphics, expects to be applied in the video game that can be more developed creative in video arts.

  • PDF

Image captioning and video captioning using Transformer (Transformer를 사용한 이미지 캡셔닝 및 비디오 캡셔닝)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.303-305
    • /
    • 2023
  • 본 논문에서는 트랜스포머를 사용한 이미지 캡셔닝 방법과 비디오 캡셔닝 방법을 제안한다. 트랜스포머의 입력으로 사전 학습된 이미지 클래스 분류모델을 거쳐 추출된 특징을 트랜스포머의 입력으로 넣고 인코더-디코더를 통해 이미지와 비디오의 캡션을 출력한다. 이미지 캡셔닝의 경우 한글 데이터 세트를 학습하여 한글 캡션을 출력하도록 학습하였으며 비디오 캡셔닝의 경우 MSVD 데이터 세트를 학습하여 학습 후 출력 캡션의 성능을 다른 비디오 캡셔닝 모델의 성능과 비교하였다. 비디오 캡셔닝에서 성능향상을 위해 트랜스포머의 디코더를 변형한 GPT-2를 사용하였을 때 BLEU-1 점수가 트랜스포머의 경우 0.62, GPT-2의 경우 0.80으로 성능이 향상됨을 확인하였다

  • PDF

플랫폼 형태에 따른 N-Screen 서비스 분류 및 플랫폼 표준화

  • Yun, Yong-Ik
    • Broadcasting and Media Magazine
    • /
    • v.17 no.1
    • /
    • pp.78-85
    • /
    • 2012
  • 무선망과 인터넷 초고속화와 함께 비디오 스트리밍, 모바일 방송, IPTV 등 통방융합 환경에서의 비디오를 중심으로 한 멀티미디어 콘텐츠 서비스가 보편화되고 있다. 이러한, 이종의 접속망과 다양한 성능의 단말이 혼재하는 융합 콘텐츠 소비환경에서 스마트폰, Tablet PC, IPTV 등 다양한 단말기에서 비디오, 음악, 게임, 데이터 등의 콘텐츠를 끊김 없이 이용할 수 있는 서비스를 일반적으로 N-Screen 서비스라고 한다. 이렇게 단말간의 이동성을 제공하기 위해서는 다양한 플랫폼 형태에 따른 N-Screen 서비스 표준화가 필요하다. 또한, 다양한 스마트 스크린간의 끊김 없는 서비스 이용이 가능한 송수신 기술 및 네트워크 자원을 활용하는 서비스들과 인터넷 기반의 서비스들 간의 상호 연계를 위한 기술들의 표준화가 계속 진행되어야 한다. 본고에서는 이러한 차세대 네트워크 환경에서 N-Screen을 위한 플랫폼과 플랫폼 형태에 따른 N-Screen 서비스 분류에 대해 살펴본다.

A Study on Metadata for Images and Videos (이미지 및 비디오 메타데이터에 관한 연구)

  • Im, Eun-Ju;Kim, Seong-Hee
    • Proceedings of the Korean Society for Information Management Conference
    • /
    • 2005.08a
    • /
    • pp.117-124
    • /
    • 2005
  • 이미지와 비디오가 효율적으로 검색되고 이용되기 위해서는 메타데이터가 구조적으로 기술될 필요가 있다. 본 논문에서는 메타데이터 구축 체계의 기반으로 MPEG-7과 Plateau, ViMod에 대해 분석하였다. MPEG-7에서는 저작 및 생산, 이용, 컨텐츠의 구조적, 개념적 측면 등과 같은 다양한 관점에서 시청각 정보가 기술된다. Plateau는 다양한 응용 분야에 적합하도록 모델링 하였기 때문에 모델이 간단명료하고 응용분야에서는 전문성을 띠고 있으나 범용성이 부족하다는 단점이 있다. ViMod는 질의의 특성을 질의의 확실성, 질의의 차원성, 데이터 의존성 관점에서 정지영상과 비디오 영상으로 분류하고 그 하위 레벨을 내용 의존적인 영상과 내용 독립적인 영상으로 분류하였다.

  • PDF

Full-automatic Classification Technique of News Video using Domain Ontologies (온톨로지를 이용한 뉴스 비디오의 자동 분류 기법)

  • Kim Ha-Eun;Lee Dong-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.193-195
    • /
    • 2005
  • 본 논문은 온톨로지를 이용하여 뉴스 비디오를 분야별로 자동으로 분류하는 효율적인 기법을 제안한다. 이를 위해서 뉴스 비디오를 파싱하여 키프레임(Key frame), 샷(Shot), 씬(Scene)으로 나누고 키프레임과 샷에서 특징 정보를 추출한다. 추출된 특징 정보를 이용하여 샷의 키워드 집합을 만들고 이를 이용하여 씬의 키워드 집합을 만든다. 그리고 씬의 키워드 집합을 어휘 온톨로지와 뉴스 온톨로지에 매칭(추론)하여, 씬의 분야를 결정한다. 또한 이렇게 결정된 분야를 기반으로 서로 유사한 씬들을 자동으로 그룹화하는 방법을 제안한다.

  • PDF

Video Segmentation Using a $color-x^2$ intensity histogram-based FCM Clustering (컬러-$x^2$ 명도 히스토그램기반 FCM 클러스터링을 이용한 비디오 분할)

  • Lee, Ji-Hyun;Kang, Oh-Hyung;Na, Do-Won;Rhee, Yang-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.189-192
    • /
    • 2005
  • 비디오 분할의 목적은 같은 내용들을 가지는 프레임들의 순서를 표현하는 각 샷의 비디오 순서 분할을 위한 것이다. 그리고 색인에 대한 각 샷으로부터 키 프레임을 선택한다. 존재하는 비디오 분할 방법들은 2가지 그룹들로 분류될 수 있다. 먼저 경계값이 할당되어야만 하는 샷 전환 검출(SCD) 접근과 클러스터 수의 사전 지식이 요구되는 클러스터 접근이다. 본 논문에서는 컬러-$x^2$명도 히스토그램 기반 FCM(fuzzy c-means) 클러스터링 알고리즘을 사용하는 비디오 분할 방법을 제안하였다. 이 알고리즘은 앞에서 기술한 2가지 접근의 혼합이다. 그리고 이것은 두 가지 접근들의 결점을 극복하도록 설계 되었다. 실험 결과들은 컬러-$x^2$명도 히스토그램 기반 FCM 클러스링 알고리즘이 강건하고 비디오 시퀀스들의 다양한 형태들에 응용할 수 있다고 제안한다.

  • PDF

MPEG Video Segmentation using Two-stage Neural Networks and Hierarchical Frame Search (2단계 신경망과 계층적 프레임 탐색 방법을 이용한 MPEG 비디오 분할)

  • Kim, Joo-Min;Choi, Yeong-Woo;Chung, Ku-Sik
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.1_2
    • /
    • pp.114-125
    • /
    • 2002
  • In this paper, we are proposing a hierarchical segmentation method that first segments the video data into units of shots by detecting cut and dissolve, and then decides types of camera operations or object movements in each shot. In our previous work[1], each picture group is divided into one of the three detailed categories, Shot(in case of scene change), Move(in case of camera operation or object movement) and Static(in case of almost no change between images), by analysing DC(Direct Current) component of I(Intra) frame. In this process, we have designed two-stage hierarchical neural network with inputs of various multiple features combined. Then, the system detects the accurate shot position, types of camera operations or object movements by searching P(Predicted), B(Bi-directional) frames of the current picture group selectively and hierarchically. Also, the statistical distributions of macro block types in P or B frames are used for the accurate detection of cut position, and another neural network with inputs of macro block types and motion vectors method can reduce the processing time by using only DC coefficients of I frames without decoding and by searching P, B frames selectively and hierarchically. The proposed method classified the picture groups in the accuracy of 93.9-100.0% and the cuts in the accuracy of 96.1-100.0% with three different together is used to detect dissolve, types of camera operations and object movements. The proposed types of video data. Also, it classified the types of camera movements or object movements in the accuracy of 90.13% and 89.28% with two different types of video data.