• 제목/요약/키워드: 비디오 장면 검색

검색결과 102건 처리시간 0.027초

파라미터 모델을 이용한 카메라의 동작 추출 (Extraction of camera Motions Using Parameterized Model)

  • 장석우;최형일
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1998년도 춘계학술대회 학술발표 논문집
    • /
    • pp.161-164
    • /
    • 1998
  • 카메라이 동작 정보는 컴퓨터 비전, 영상 코딩 및 비디오 검색 등의 분야에서 사용되는 강력하고 중요한 특징이다. 특히, 최근에 관심의 초점이 되고 있는 내용기반 비디오 검색을 위한 자동색인에서 장면전환 검출이나 이동 물체의 동작 정보 추출 등에 값지게 활용될 수 있다. 본 논문에서는 파라미터 모델을 이용해서 카메라의 동작을 추출하는 방법을 제안한다. 먼저, 영상의 공간적인 특성을 고려하면서 전체 과정의 속도를 탐색 영역 내에서 동적 백터를 추출한다. 그리고 추출된 동작 벡터를 파라미터 모델에 적용하여 파라미터를 추출하고, 카메라의 동작을 파라미터들의 상호 관계를 이용하여 정의하므로써 최종적인 카메라의 동작을 추출한다. 본 논문에서 제안한 방법은 기존의 방법에 비해 계산 시간상의 비용을 축소시켰고, 화소 단위가 아니라 셀 단위로 카메라의 동작을 추출하므로 다른 방법에 비해 잡음에 보다 강건하다. 또한, 이동 물체의 움직임으로 발생할 수 있는 오류를 최대한 배재한다.

  • PDF

비트플레인과 Key를 이용한 비디오 워터마킹 (Video Watermarking Using Bit plane and Key)

  • 최용수;김정엽;현기호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 추계학술발표논문집(상)
    • /
    • pp.867-870
    • /
    • 2004
  • 본 논문은 비디오 워터마킹에 관한 연구로서 기존의 DCT변환을 한 후 동영상에 워터마크를 삽입하는 방법과는 달리, 압축과정이나 다른 다양한 공격에 대한 강인성에 초점을 두었다. 이 기법은 DWT 기반의 블라인드 비디오 워터마킹으로서 인간 시각적 특성에서 비지각성을 유지하기 위한 방법이다. 칼라영상을 LUV 좌표계로 변환하여 인간 시각에 둔감한 U영역에 서로 다른 장면의 I-프레임에 대해서 웨이블릿 영역 안에 8bit-plane을 한 후, 1단계 웨일블릿 변환을 거친 부호화된 워터마크에 랜덤한 키를 이용하여 삽입한다. 이 기법은 독립적인 워터마크를 HH1를 제외한 나머지 고주파 부대역 영역에 워터마크를 삽입하고 추출 시에는 삽입된 키를 이용하여 추출하였다. 그리고, 제안한 비디오 워터마킹 알고리즘은 효과적으로 풀리지 않았던 프레임 드로핑과 같은 공격들에 대한 강인함을 기존의 방법과 비교 실험하였다. 이는 최초의 영상 없이 삽입된 워터마크 정보를 실시간으로 검색하여 추출할 수 있다.

  • PDF

칼라 정보를 이용한 비디오 데이터에서의 감정 분석 (Emotional analysis in video data using color information)

  • 전성호;강행봉
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 춘계학술발표논문집 (상)
    • /
    • pp.725-728
    • /
    • 2003
  • 사용자의 감정에 관련된 정보를 처리하는 것은 인간과 컴퓨터와의 상호작용(HCI)에 있어서 매우 중요한 역할을 한다. 특히 비디오 데이터에 대한 사용자의 감정을 처리하는 것은 비디오 검색이나 요약본 구성에 매우 중요하다. 사용자의 감정을 처리하기 위해서는 감정에 관련된 특징들을 추출 및 측정하고 이를 기반으로 비디오 장면을 분류하는 것이 필요하다. 본 논문에서는 칼라 정보를 바탕으로 Fisher의 Linear Discriminant Analysis 방식 및 Mahalanobis Distance 측정을 이용하여 기본 감정의 분류 방식을 제안한다. 공포 감정의 경우 77.8%의 의미 있는 결과를 얻었다.

  • PDF

HAQ 알고리즘과 Moment 기반 특징을 이용한 내용 기반 영상 검색 알고리즘 (Content-Based Image Retrieval Algorithm Using HAQ Algorithm and Moment-Based Feature)

  • 김대일;강대성
    • 대한전자공학회논문지SP
    • /
    • 제41권4호
    • /
    • pp.113-120
    • /
    • 2004
  • 본 논문은 내용 기반 검색 기법에 의한 보다 효율적인 특징 추출 및 영상 검색 알고리즘을 제안하였다. 먼저, MPEG 비디오의 key frame을 입력 영상으로 하여 Gaussian edge detector를 이용하여 객체를 추출하고, 그에 따른 객체 특징들, location feature distributed dimension feature와 invariant moments feature를 추출하였다. 다음, 제안하는 HAQ (Histogram Analysis and Quantization) 알고리즘으로 characteristic color feature를 추출하였다. 마지막으로 key frame이 아닌 shot frame을 질의영상으로 하여 제안된 matching 기법에 따라 4가지 특징들의 단계별 검색을 수행하였다. 본 논문의 목적은 사용자가 요구하는 장면이 속한 비디오의 shot 경계 내의 key frame을 검색하는 새로운 내용 기반 검색 알고리즘을 제안함에 있다. 제안된 알고리즘을 바탕으로 10개의 뮤직비디오, 836개의 시험 영상으로 실험한 결과, 효과적인 검색 효율을 보였다.

동영상 카투닝 시스템을 위한 자동 프레임 추출 기법 (Auto Frame Extraction Method for Video Cartooning System)

  • 김대진;구떠올라
    • 한국콘텐츠학회논문지
    • /
    • 제11권12호
    • /
    • pp.28-39
    • /
    • 2011
  • 멀티미디어 산업의 발달과 함께 디지털 콘텐츠 시장의 확산을 가져오고 있다. 그 중 인터넷 만화와 같은 디지털 만화 시장의 확장은 급속하게 커지고 있어서, 콘텐츠의 부족과 다양성 때문에 동영상 카투닝에 대한 연구가 계속되고 있다. 지금까지는 동영상 카투닝은 비사실적 렌더링과 말풍선에 초점이 맞추어졌으나, 이러한 것들을 적용하기 위해서는 카투닝 서비스에 적합한 프레임 추출이 우선시 되어야만 한다. 기존의 방법으로는 동영상의 장면전환이 일어나는 샷(shot)안의 프레임을 추출하여, 사용자가 지정한 영역을 임의의 색상으로 렌더링(Rendering)하는 시스템이 있다. 하지만 이러한 방법은 사람의 손을 거치는 반자동적인 방법으로서 정확한 프레임 추출을 위해 사람의 손을 거쳐야하는 단점이 있다. 따라서 본 논문에서는 이러한 문제점을 해결하고, 보다 정확한 카투닝에 적용할 프레임을 추출하기 위해 오디오 및 비디오 분리를 통한 방법을 제안한다. 먼저 동영상으로부터 오디오와 비디오를 분리한다. 오디오는 먼저 MFCC와 영교차율의 특징을 추출하고, 이 특징 정보를 미리 학습된 데이터와 GMM 분류기를 통하여 음악, 음성, 음악+음성으로 분류한 후 음성 영역을 설정한다. 비디오는 히스토그램을 이용한 방법과 같은 일반적인 장면전환 프레임을 추출 후 얼굴 검색을 통해서 만화에서 의미가 있는 프레임을 추출한다. 그 후 음성 영역내에 얼굴이 존재하는 장면전환 프레임이나 일정 시간동안 음성이 지속되는 영역 중 장면전환 프레임을 추출하여 동영상 카투닝에 적합한 프레임을 자동으로 추출한다.

골프 동영상에서의 강건한 선수명 인식 (Robust Recognition of a Player Name in Golf Videos)

  • 정철곤;김중규
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.659-662
    • /
    • 2008
  • 스포츠의 경기에서 비디오 문자는 득점이나 선수명과 같은 중요한 정보를 제공한다. 본 논문에서는 골프 동영상에서 선수명 정보를 강건하게 인식하는 방법을 제안한다. 골프 경기의 경우, 원하는 선수의 플레이 장면을 검색하고자 하는 요구가 많은 스포츠 종목이다. 이러한 기능을 구현하기 위해 골프 동영상에 포함된 문자 정보를 이용한다. OCR 에 의해 검출된 문자 정보를 인식한 후, 사전 등록된 선수명 DB 를 이용해 선수명 정보를 인식한다. 이렇게 획득된 선수명 정보를 이용해 원하는 선수의 플레이 장면을 검색할 수 있도록 하였다. 다양한 골프 동영상에 대하여 실험을 수행한 결과, 본 논문에서 제안한 방법이 강건하게 선수명을 인식하는 것을 확인하였다.

  • PDF

가변 참조 구간에서의 적응적 임계값 설정 방법을 이용한 장면 전환 검출 기술과 PMP에서의 구현 (Shot Change Detection Technique Using Adaptive Threshold Setting Method on Variable Reference Block and Implementation on PMP)

  • 김원희;문광석;김종남
    • 한국멀티미디어학회논문지
    • /
    • 제12권3호
    • /
    • pp.354-361
    • /
    • 2009
  • 장면 전환 검출은 비디오 분할의 주요 기술로서 하드웨어에서 구현하기 위해서는 실시간 및 자동적 처리가 만족되어야 한다. 현재까지 PMP나 핸드폰 같은 낮은 하드웨어 성능의 단말기에서 실시간으로 적용 가능한 장면 전환 검출 기술은 거의 없다. 이와 같은 단말기들에서 장면 전환 검출의 실시간 적용을 위하여, 본 논문에서는 가변 참조 구간의 적응적 임계값 설정 방법을 이용한 장면 전환 검출 기술을 제안한다. 제안하는 방법은 현재 프레임의 특징값과 가변 참조 구간의 평균 특징값을 비교하여 장면 전환 유무를 결정한다. 제안하는 방법은 프레임의 특징값에 독립적으로 사용할 수 있으며, 가변 참조 구간 동안의 평균 특징값을 이용하여 자동적인 임계값 설정이 가능하다. 동일한 영상에 대한 실험을 통하여 기존의 방법들보다 최고 정확도(precision)에서 0.146, 회수도(recall)에서 0.083, F1에서 0.089 이상 결과가 향상된 것을 확인하였다. 제안한 실시간 SCD 모델을 H사의 PMP에 적용하여 실시간 장면 전환 검출이 가능한 것을 검증하였다. 제안한 방법은 PMP나 핸드폰 같은 휴대용 미디어 재생 장치에서 비디오 데이터를 검색할 때 유용하게 사용될 수 있다.

  • PDF

동적 임계값과 컷 프레임 차를 이용한 점진적 전환 검출 기법 (Gradual scene change detection using Cut frame difference and Dynamic threshold)

  • 염성주;김우생
    • 정보처리학회논문지B
    • /
    • 제9B권3호
    • /
    • pp.293-302
    • /
    • 2002
  • 내용기반 검색을 위한 비디오 데이터 장면전환 검출에서 점진적인 전환을 검출하는 것은 갑작스런 전환을 검출하는 것에 비해 일반적으로 어려운 문제로 알려져 있다. 본 논문에서는 가변형 동적 임계값과 가장 최근에 검출된 컷 프레임과 현재 프레임간의 특징값 차이인 컷 프레임 차를 이용하여 갑작스런 전환과 점진적인 전환을 찾아내는 기법을 제안한다. 이를 위하여 본 논문에서는 점진적인 전환이 갖는 특성과 수학적 모델을 제시하고 컷 프레임 차를 이용하여 점진적인 전환을 검출할 수 있음을 보인다. 그리고 이를 바탕으로 갑작스런 전환과 점진적인 전환을 함께 검출할 수 있는 방법을 제시한다. 실세계 동영상 데이터를 대상으로 한 실험을 통해 제안하는 기법이 점진적인 전환 효과의 종류에 종속적이지 않으며 적은 연산 비용으로 쉽게 점진적인 전환 유무를 검출 할 수 있음을 보인다.

재구성이 가능한 멀티스토리 3D 애니메이션 (Reusable Multi-story 3D Animation)

  • 김성래;김호성;탁지영;박지은;임선혁;김수산나;이규선;이지현
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2007년도 추계 종합학술대회 논문집
    • /
    • pp.238-242
    • /
    • 2007
  • 기존 UCC웹사이트에서는 사용자가 완성한 콘텐츠를 게시할 뿐 UCC의 소스나 이를 재구성할 수 있는 플랫폼을 제공하지 못하여 일반 사용자들이 새로운 콘텐츠를 제작하기 어렵다. 본 연구에서는 기존의 영상을 장면단위로 제공하고 User가 재구성함으로써 또 다른 내용의 콘텐츠를 제작할 수 있는 플랫폼을 개발하고 이에 적합한 다중 이야기 구조의 3D애니메이션을 제작해보았다. 제공된 영상을 User가 쉽게 재구성하기 위해서는 영상의 검색이 필수적이다. 영상의 용이한 검색을 위해 영상에 대한 내용설명과 영상 정보를 분류하였다. 동영상은 그 특성에 따라 하나의 단어로 표현하기가 모호하다. 그렇기 때문에 사용자가 원하는 요소를 최대한 반영하여 해당장면이 포함하고 있는 모든 요소를 검색할 수 있도록 제시된 카테고리를 중복 선택하여 검색할 수 있다. 검색된 장면 중 원하는 특정구간을 선택할 수 있으며, 선택된 장면들을 원하는 순서대로 나열하여 하나의 이야기를 만들어내고, 자막 및 BGM 등을 삽입할 수도 있다. 완성된 동영상은 카테고리, 신규, 인기별로 분류된다. 이러한 기획의도에 부합하는 3D 애니메이션으로 헝겊인형을 캐릭터로 인형세계에서 벌어지는 사건들을 모은 멀티스토리를 기획하고 제작해보았다. 이러한 시도는 뮤직비디오나 드라마, 영화, 광고 등 영상 미디어 분야의 새로운 마케팅 수단으로서의 활용될 수 있을 것이다.

  • PDF

감정에 관련된 비디오 셧의 특징 표현 및 검출 (Representation and Detection of Video Shot s Features for Emotional Events)

  • 강행봉;박현재
    • 정보처리학회논문지B
    • /
    • 제11B권1호
    • /
    • pp.53-62
    • /
    • 2004
  • 인간과 컴퓨터간의 상호작용에 있어서 감정처리는 매우 중요한 부결이다. 특히, 비디오 정보처리에 있어서 사용자의 감정을 처리할 수 있다면 비디오 검색이나 요약본 추출 등 다양한 응용분야에 활용이 가능하다. 비디오 데이터로부터 이러한 감정 처리를 하기 위해서는 감정에 관련된 특징들을 표현하고, 검출하는 것이 필요하다. 쉽게 추출이 가능한 색상이나 모션 등의 저급 특징들로부터 고급 개념인 감정을 검출하는 것은 매우 어려운 일이지만, 감정에 관련된 여러 장면으로부터 LDA(Linear Discriminant Analysis)와 같은 통계적인 분석을 통해 감정에 관련된 특징들을 검출하는 것은 가능하다. 본 논문에서는 색상, 모션 및 셧 길이 정보로부터 감정과의 관련된 특징을 표현하고 검출하는 방법을 제안한다. 제안된 특징을 사용하여 감정 검출에 관련된 실험을 한 결과 바람직한 결과를 얻었다.