• 제목/요약/키워드: 비디오표현

검색결과 369건 처리시간 0.024초

비디오 내용기술을 위한 MPEG-7과 TV Anytime 메타데이타의 상호 변환 (Metadata Transcoding between MPEG-7 and TV Anytime for Segmentation Information of Video)

  • 임화영;이창윤;김혁만
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 가을 학술발표논문집 Vol.29 No.2 (1)
    • /
    • pp.31-33
    • /
    • 2002
  • 본 논문에서는 MPEG-7 스키마에 따라 비디오의 내용을 기술한 메타데이타를 TVA 스키마에 따른 메타데이타로 변환, 그리고 그 역방향으로의 변환 방법을 제안한다. 이를 위해 MPEG-7과 TVA스키마를 분석하여 그들의 유사점과 차이점을 밝히다. 또한 중첩 표현법과 참조 표현법으로의 상호 변환시 야기되는 id 처리문제, 대표화면 정보의 처리, 위치 정보의 처리 등에 관한 방법 을 기술한다.

  • PDF

효율적인 비디오 브라우징을 위한 동적 요약 및 요약 기술구조 (Dynamic Summarization and Summary Description Scheme for Efficient Video Browsing)

  • 김재곤;장현성;김문철;김진웅;김형명
    • 방송공학회논문지
    • /
    • 제5권1호
    • /
    • pp.82-93
    • /
    • 2000
  • 최근 디지털 비디오 데이터가 급격히 증가하고 대중화됨에 따라 이를 활용하기 위한 효율적인 접근 기법이 절실히 요구되고 있다. 비디오 요약(video summarization) 기법은 의미적으로 중요한 요점만으로 전체 비디오를 표현하는 것으로 비디오 내용에 대한 전반적인 개관(overview)을 제공할 뿐만 아니라 브라우징(browsing) 등의 유용한 접근 기능을 제공한다. 본 논문에서는 의미적으로 중요한 내용을 포함하는 비디오 주요구간(highlight segment) 검출을 통한 새로운 동적 요약(dynamic summarization) 기법과 생성된 요약 정보 표현을 위하여 MPEG-7에 제안한 요약 기술구조(DS : Description Scheme)에 대하여 기술한다. 본 논문의 기술구조는 다중 계층의 하이라이트(highlight), 계층적 브라우징, 사용자 주문형 요약 등의 기능을 통하여 비디오의 개관 및 효율적인 브라우징, 네비게이션(navigation)을 가능하게 한다. 또한, 제안하는 비디오 요약 기법 및 요약 기술구조의 실현 가능성 및 기능 구현을 확인하기 위하여 축구 비디오에 대한 적용 실례를 제시한다.

  • PDF

움직임 동사와 선-영역 위상간 관련성에 관한 연구 (A Study on Correlation between Line-Region Topology and Motion Verbs)

  • 조미영;송단;최준호;김원필;김판구
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 춘계학술발표대회
    • /
    • pp.177-180
    • /
    • 2004
  • 비디오 데이터베이스에서 움직임 정보를 가지고 있는 이동객체에 대한 모델링은 크게 두 가지 측면 즉, 공간적 혹은 시간적 관계성에 의해 다루어진다. 공간적 관계에서 위상 관계는 근접 그래프에 의한 모델링이 대부분이며, 이를 이용한 내용 기반 비디오 검색에서 자연어 형태의 질의어는 정형화된 위상 관계 표현으로 변환하는 과정을 거친다. 그러나 이 과정에서 위상 관계 표현이 인간이 사용하는 언어의 의미를 정확히 반영하는지는 알 수 없다. 이에 본 논문에서는 위상 관계 표현과 인간이 사용하는 움직임 동사간 의미의 차이를 줄이기 위해 위상 관계 표현과 실제 움직임 동사간의 매칭에 대해 연구했다.

  • PDF

비분할 비디오로부터 행동 탐지를 위한 순환 신경망 학습 (Learning Recurrent Neural Networks for Activity Detection from Untrimmed Videos)

  • 송영택;서준배;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.892-895
    • /
    • 2017
  • 본 논문에서는 비분할 비디오로부터 이 비디오에 담긴 사람의 행동을 효과적으로 탐지해내기 위한 심층 신경망 모델을 제안한다. 일반적으로 비디오에서 사람의 행동을 탐지해내는 작업은 크게 비디오에서 행동 탐지에 효과적인 특징들을 추출해내는 과정과 이 특징들을 토대로 비디오에 담긴 행동을 탐지해내는 과정을 포함한다. 본 논문에서는 특징 추출 과정과 행동 탐지 과정에 이용할 심층 신경망 모델을 제시한다. 특히 비디오로부터 각 행동별 시간적, 공간적 패턴을 잘 표현할 수 있는 특징들을 추출해내기 위해서는 C3D 및 I-ResNet 합성곱 신경망 모델을 이용하고, 시계열 특징 벡터들로부터 행동을 자동 판별해내기 위해서는 양방향 BI-LSTM 순환 신경망 모델을 이용한다. 대용량의 공개 벤치 마크 데이터 집합인 ActivityNet 비디오 데이터를 이용한 실험을 통해, 본 논문에서 제안하는 심층 신경망 모델의 성능과 효과를 확인할 수 있었다.

이동 객체의 효과적 표현을 위한 시맨틱 어노테이션 방법 (A Semantic Annotation Method for Efficient Representation of Moving Objects)

  • 이진활;홍명덕;이기성;정진국;조근식
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권7호
    • /
    • pp.67-76
    • /
    • 2011
  • 최근 비디오가 대화형 콘텐츠를 위한 타입으로 많은 각광을 받기 시작하면서 비디오 데이터에 포함된 객체들을 의미적으로 표현하고 검색하기 위한 시맨틱 어노테이션 방법에 대한 연구가 활발히 진행되고 있다. 비디오 데이터에 포함된 객체들은 시간의 변화에 따라 공간적 위치가 변화하기 때문에 매 프레임마다 상이한 위치 데이터가 발생한다. 따라서 모든 프레임의 객체에 대한 위치 데이터들을 저장하는 것은 매우 비효율적이므로 이를 부적절한 오차가 발생하지 않는 범위 내에서, 효과적으로 압축하여 표현할 필요가 있다. 본 논문은 컴퓨터 또는 에이전트가 직관적으로 객체에 대한 정보를 이해할 수 있도록 표현하기 위해 비디오 데이터가 포함하는 객체에 대하여 의미적 정보를 부여하기 위한 온톨로지 모델링 방법과 이동 객체의 위치 데이터를 압축하기 위해 3차 스플라인 보간법을 적용하여 의미적 정보와 함께 어노테이션 하는 방법을 제안한다. 제안한 어노테이션 방법의 효율을 검증하기 위한 대화형 비디오 시스템을 구현하고, 다양한 특징을 가지는 객체가 나타나는 비디오 데이터 셋을 이용하여 샘플링 간격에 따른 오차율과 데이터량을 비교하였다. 그 결과, 샘플링 간격이 15프레임 이하 일 때, 최대 80%의 데이터 저장 공간을 절약할 수 있을 뿐만 아니라 객체의 실제 좌표 대비 최대 31픽셀, 평균 4픽셀 미만의 오차 편차를 얻을 수 있었다.

Nearest Neighbor 클러스터링 방법을 이용한 비디오 스토리 분할 (Video Story Segmentation using Nearest Neighbor Clustering Method)

  • 이해만;최영우;정규식
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.101-104
    • /
    • 2000
  • 비디오 데이터의 효율적인 검색, 요약 등에 활용하기 위해서 대용량의 비디오 데이터를 프레임(Frame), 샷(Shot),스토리(Story)의 계층적인 구조로 표현하는 방법들이 요구되고 있으며, 이에 따라 비디오를 샷, 스토리 단위로 분할하는 연구들이 수행되고 있다. 본 논문은 비디오가 샷 단위로 분할되어 있다고 가정한 후, 인접한 샷들을 결합하여 의미 있는 최소 단위인 스토리를 분할하는 방법을 제안한다. 제안하는 방법은 각 샷에서 추출된 대표 프레임들을 비교하기 위한 CCV(Color Coherence Vector) 영상 특징을 추출한다. CCV 특징의 시각적인 유사도의 초기임계값과 일정한 시간 안에 반복되는 프레임들을 찾기 위한 시간적인 유사도의 시간 임계값을 설정하여NN(Nearest Neighbor) 클러스터링 방법을 이용하여 클러스터링을 한다. 클러스터링된 정보와 같은 장면이 한번이상 반복되는 스토리의 특성을 이용해 비디오를 스토리로 분할한다. 영화 비디오 데이터를 이용한 실험을 통해 제안하는 방법의 유효성을 검증하였다.

  • PDF

시간 관계성을 기반으로 한 비디오 데이터 모델의 설계 및 구현 (Design and Implementation of the Video Data Model Based on Temporal Relationship)

  • 최지희;용환승
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (1)
    • /
    • pp.298-300
    • /
    • 1998
  • 비디오 데이터의 중요한 면 중에 하나는 시간 관계성을 지닌다는 것이다. 본 논문에서는 비디오 데이터가 계층적 구조로 표현 가능하며, 각각의 계층은 각기 시간의 흐름에 따라 시간적 관계를 지닌다는 특성을 반영하여, 이러한 관계를 기반으로 하여, 비디오 계층적 구조에 대한 시간 관계성(video structure temporal relationship), 비디오 객체들 간의 시간 관계성(inter video-data temporal relationship), 비디오 객체내의 시간 관계성(intra video-data temporal relationship)를 제시한다. 이러한 비디오 데이터의 시간적 관계를 계승, 캡슐화, 함수 중복 등의 객체지향 특성을 이용한다. ORDBMS에 통합함으로써 다양한 시간 산자(temporal operator)를 제공한다. 이로써 사용자에게 편리하고 단일한 인터페이스와, 좀더 다양한 시간 질의어(temporal query)를 제공할 수 있는 메카니즘을 제공한다.

대화형 방송 환경을 위한 동적 비디오 요약 (Dynamic Video Abstraction for Interactive Broadcasting Applications)

  • 김재곤;장현성;김진웅
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵
    • /
    • pp.103-108
    • /
    • 1999
  • 방송 환경의 디지털화와 더불어 단순히 단방향 방송 정보만을 시청하던 기존의 방식을 넘어 사용자의 다양한 욕구를 수용할 수 있는 대화형 방송 서비스(interactive broadcasting service)가 시작되고 있다. 대화형 방송 환경에서는 특히 사용자 측에 제공된 방대한 양의 디지털 멀티미디어 자료에 대한 효과적인 접근이 요구되는데, 본 논문에서는 이를 위하여 방송 비디오를 효과적으로 브라우징(browsing) 및 검색하고 전체의 내용을 짧은 시간 내에 개관할 수 있도록 하는 동적 비디오 요약(dynamic video abstraction) 기법에 관하여 고찰한다. 동적 비디오 요약에 의한 요약 비디오(skim video)는 전체 비디오를 내용에 기반하여 효과적으로 표현할 수 있도록 동영상 내의 주요 구간만으로 구성된 것으로, 대화형 방송에서 새로운 형태의 프로그램 안내 및 사용자 저장 자료에 대한 브라우징 도구 등으로써 매우 유용하게 사용할 수 있다. 본 논문에서는 자동으로 비디오 요약을 구현하기 위한 접근 방법과 전체 기능 구성 및 각 기능들의 구현 방법에 대하여 기술한다.

  • PDF

Free Viewpoint 비디오 시스템을 위한 Ray-space 보간 기법 보완 연구 (Modified Ray-space Interpolation for Free Viewpoint Video System)

  • 서강욱;김동욱;김화성;유지상
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2006년도 학술대회
    • /
    • pp.41-43
    • /
    • 2006
  • FTV (Free Viewpoint TV, 자유시점 TV)는 사용자들이 원하는 시점을 자유자재로 결정할 수 있는 차세대 TV이다. 또한 영상 획득 시 카메라가 위치하지 않은 새로운 시점을 만들 수 있다. 따라서 FTV는 개인, 산업, 사회, 의학. 사회 분야의 유망한 응용이 될 수 있다. Ray-space에 의한 데이터 표현은 FTV를 위한 데이터 포맷의 한 후보가 될 수 있으며, 실시간으로 임의시점의 영상을 구성하는 데에 있어서 우수한 장점을 가지고 있다. Ray-space에서 사용하는 기법은 컴퓨터 그래픽스가 아니라 순수한 신호 처리 방식이다. 스케일러블 구조, 계층적 구조가 Ray-space로 표현 가능하므로, Ray-space는 비디오 처리의 새로운 플랫폼을 구성할 수 있고 비디오의 개념을 확장할 수 있다. 본 논문에서는 Ray-space 데이터를 이용하여 임의 시점 영상을 생성하기 위해 기존의 보간(interpolation) 기법을 보완한 새로운 기법을 제안함으로써, 보다 자연스러운 영상을 얻고자 하는데 목적이 있다.

  • PDF

비디오 스크립트를 이용한 문법적 패턴 습득 모델링 (Modelling Grammatical Pattern Acquisition using Video Scripts)

  • 석호식;장병탁
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2010년도 제22회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.127-129
    • /
    • 2010
  • 본 논문에서는 다양한 코퍼스를 통해 언어를 학습하는 과정을 모델링하여 무감독학습(Unsupervised learning)으로 문법적 패턴을 습득하는 방법론을 소개한다. 제안 방법에서는 적은 수의 특성 조합으로 잠재적 패턴의 부분만을 표현한 후 표현된 규칙을 조합하여 유의미한 문법적 패턴을 탐색한다. 본 논문에서 제안한 방법은 베이지만 추론(Bayesian Inference)과 MCMC (Markov Chain Mote Carlo) 샘플링에 기반하여 특성 조합을 유의미한 문법적 패턴으로 정제하는 방법으로, 랜덤하이퍼그래프(Random Hypergraph) 모델을 이용하여 많은 수의 하이퍼에지를 생성한 후 생성된 하이퍼에지의 가중치를 조정하여 유의미한 문법적 패턴을 탈색하는 방법론이다. 우리는 본 논문에서 유아용 비디오의 스크립트를 이용하여 다양한 유아용 비디오 스크립트에서 문법적 패턴을 습득하는 방법론을 소개한다.

  • PDF