• 제목/요약/키워드: Scene change Detection

검색결과 225건 처리시간 0.026초

2단계 신경망과 계층적 프레임 탐색 방법을 이용한 MPEG 비디오 분할 (MPEG Video Segmentation using Two-stage Neural Networks and Hierarchical Frame Search)

  • 김주민;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권1_2호
    • /
    • pp.114-125
    • /
    • 2002
  • 본 논문에서는 MPEG 비디오 데이터의 컷(cut)과 디졸브(dissolve)를 검출하여 샷(shot) 단위로 분할하고 각 샷의 카메라 동작 또는 객체 움직임의 형태를 분류하는 방법을 제안하고자 한다. 정확한 샷의 위치와 카메라, 객체의 세분화된 동작을 구별하기 위한 전단계의 연구에서[1] 우선 MPEG 데이터의 I(Intra) 프레임의 DC(Direct Current) 계수를 분석하여 픽처 그룹을 Shot(장면이 바뀐 경우), Move(카메라 동작 또는 객체가 움직인 경우), Static(영상의 변화가 거의 없는 경우)으로 세분화하여 분류하였다. 이 과정에서 2단계 구조의 신경망을 구성하고 여러 종류의 특징을 서로 다른 해상도에서 추출하여 결합시키는 방법을 제안하였다. 다음 단계로 Shot 또는 Move로 분류된 픽처 그룹의 P(Predicted), B(Bi-directional) 프레임을 선별적, 계층적으로 탐색하여 컷의 정확한 발생 위치와 카메라 동작 또는 객체 움직임의 종류를 결정하는 방법을 제안한다. P, B 프레임의 매크로 블록의 종류별 분포를 통계적으로 이용하여 컷의 발생 위치를 검출하여, P, B 프레임의 매크로 블록 종류와 움직임 벡터를 동시에 사용하는 신경망을 구성하여 디졸브, 카메라 동작, 객체 움직임의 종류를 검출한다. 본 논문에서 제안하는 방법은 MPEG 데이터의 압축을 풀지 않은 상태에서 I 프레임의 DC 계수만을 사용하여 픽처 그룹을 분류하며, 분류된 픽처 그룹 내에서 일부의 P, B 프레임만을 계층적으로 선택하여 탐색함으로서 처리 시간을 감소시키고자 하였다. 세 종류의 서로 다른 비디오 데이터를 사용한 실험에서 93.9-100.0%로 픽처 그룹을, 96.1-100.0%로 컷을 검출하였다. 또한 두 종류의 비디오 데이터를 사용한 실험에서 90.13% 및 89.28%의 정확성으로 카메라 동작 또는 객체 움직임을 분류하였다.

압축영역에서의 대표프레임 추출 및 영역분할기반 비디오 검색 기법 (Key Frame Extraction and Region Segmentation-based Video Retrieval in Compressed Domain)

  • 강응관;김성주;송호근;최종수
    • 한국통신학회논문지
    • /
    • 제24권9B호
    • /
    • pp.1713-1720
    • /
    • 1999
  • 본 논문에서는 동영상 압축 부호화에 대한 표준안인 MPEG 기반의 압축 비디오 시퀀스로부터 DCT DC 계수를 추출하고, 이들로 구성된 DC 이미지로부터 AHIM (Accumulative Histogram Intersection Measure)을 이용하여 장면 전환 검출을 수행한 후 대표 프레임을 추출하는 방법을 제시한다. 또한, 추출된 대표 프레임을 두 단계를 거쳐 데이터베이스의 색인 정보로 저장한 후, 입력되는 질의 영상에 대해 사용자가 원하는 검색 결과를 제시하는 방법에 대해 제안한다. 즉 전처리 과정으로 추출된 대표 프레임에 대해 영역 분할을 한 후, 첫 번째 단계에서 수평 투영된 결과를 히스토그램 분포 특성으로 변환시켜 데이터베이스의 색인 정보로 저장한다. 두 번째 단계에서는 영상의 모멘트 특성을 거리함수 값으로 변환시킨다. 실험 결과 제안된 방법이 검색에 있어 우수한 성능을 갖추고 또한 상당한 양의 처리 시간과 메모리 공간을 줄일 수 있음을 확인하였다. 향후 제안한 방법은 색상과 같은 다른 색인 정보와 결합할 경우, 보다 나은 영상 색인과 검색 수단을 제공할 것이다.

  • PDF

장면의 유사도 패턴 비교를 이용한 내용기반 동영상 분할 알고리즘 (Content based Video Segmentation Algorithm using Comparison of Pattern Similarity)

  • 원인수;조주희;나상일;진주경;정재협;정동석
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1252-1261
    • /
    • 2011
  • 본 논문은 내용기반 동영상 분할을 위한 장면의 유사도 패턴 비교 방법을 제안한다. 동영상 장면 전환의 종류는 크게 급진적 전환과 디졸브(dissolve), 페이드인(fade-in), 페이드아웃(fade-out), 와이프 전환(wipe transition)을 포함하는 점진적 전환 형태로 나눌 수 있다. 제안하는 방법은 모든 종류의 장면 전환 검출 문제를 단지 발생 유무의 문제로 간단 정의하고, 장면 전환 종류는 별도로 구분하지 않는다. 장면 전환을 검출하기 위해서는 프레임간의 유사도를 정의해야 한다. 본 논문에서는 장면 내 유사도(within similarity)와 장면 간 유사도(between similarity)를 정의하며 두 유사도의 통계적 패턴 비교를 통하여 최종적으로 장면 전환을 검출하게 된다. 장면 내 유사도와 장면 간 유사도의 비율을 구하는 방법을 통해 플래시라이트나영상 내 물체 움직임에 대한 거짓 양성 검출을 별도의 후처리 과정 없이도 방지할 수 있음을 확인하였다. 프레임의 특징 값으로는 컬러 히스토그램과 프레임 내 평균 화소값을 이용하였다. TREC-2001, TREC-2002 동영상 셋을 포함한 실험 셋에서 성능을 평가한 결과 제안하는 알고리즘의 경우 총 91.84%의 재현율(recall)과 86.43%의 정확도(precision)의 성능을 보임을 확인할 수 있었다.

무인 감시 시스템을 위한 이동물체 검출 알고리즘 (Moving Object Detection Algorithm for Surveillance System)

  • 임강모;이주신
    • 한국통신학회논문지
    • /
    • 제30권1C호
    • /
    • pp.44-53
    • /
    • 2005
  • 본 논문에서는 무인 감시 시스템의 안정적인 성능을 위해서 배경 장면에서 일정 영역 내에서 반복적인 움직임이 발생하는 경우와 급격한 조도 변화가 발생한 경우에 이동물체 검출 성능을 개선하기 위한 알고리즘을 제안하였다. 제안한 알고리즘은 배경 영상을 초기화하기 위하여 배경 장면을 프레임 샘플링한 후, 샘플링 된 프레임들을 블록으로 각각 분할하여 각 블록 화소의 총 휘도 값을 계산하였다. 배경 영상의 초기화는 시간적으로 인접된 프레임들 사이에 동일 위치에 놓인 블록의 최대 휘도 값과 최소 휘도 값만을 선택하여 배경 프레임을 각각 재구성 하여 배경 기준 영상으로 놓았다. 이동물체 검출은 현재 영상 프레임을 블록으로 분할하여 각 블록 내의 화소들의 총 휘도 값을 계산하고, 계산된 값이 초기화 된 두 장의 기준 영상의 휘도 범위를 벗어나면 이동물체가 존재하는 블록으로 결정하고, 벗어나지 않으면 배경으로 판단하였다. 제안한 알고리즘의 타당성을 검토하기 위하여 실내 및 실외 환경에서 사람과 자동차를 대상으로 알고리즘의 성능을 평가한 결과, 제안한 방법의 에러율이 기존 방법들의 에러율보다 $0.01{\%}$에서 $20.33{\%}$까지 작아졌고 이동물체 검출율은 제안한 방법이 기존 방법보다 $0.17{\%}$에서 $22.83{\%}$까지 향상되어 제안한 방법의 우수함을 보였다.

움직임과 영상 패턴 서술자를 이용한 중복 동영상 검출 (Detecting near-duplication Video Using Motion and Image Pattern Descriptor)

  • 진주경;나상일;정동석
    • 대한전자공학회논문지SP
    • /
    • 제48권4호
    • /
    • pp.107-115
    • /
    • 2011
  • 본 논문은 대용량 동영상을 관리하기 위한 빠르고 효율적인 내용기반 중복 동영상 검출 알고리즘을 제안한다. 효율적인 중복 동영상 검출을 위해 대용량의 동영상을 처리하기 쉬운 작은 단위로 나누는 동영상 장면 전환 기반 분할 기술을 적용하였다. 동영상 서비스 및 저작권 보호 관련 사업모델의 경우, 필요한 기술은 아주 작은 구간의 동영상이나 한 장의 영상 을 검색하기보다는 상당한 길이 이상 일치하는 동영상을 파악하는 기술이 필요하다. 이러한 중복 동영상 검출을 위해 본 논문에서 동영상을 장면 전환을 기준으로 분할하여, 나누어진 장면 내에서 움직임 분포 서술자와 대표 프레임을 선택하여 프레임 서술자를 추출한다. 움직임 분포 서술자는 동영상 디코딩 과정에서 얻어지는 매크로 블록의 움직임 벡터를 이용한 장면 내 움직임 분포 히스토그램을 구성하였다. 움직임 분포 서술자는 정합시 고속 정합이 가능하도록 필터링 역할을 한다. 반면 움직임 정보만는 낮은 변별력을 가진다. 이를 높이기 위해 움직임 분포 서술자를 이용하여 정합된 장면간에 선택된 대표 프레임의 패턴 서술자를 이용하여 동영상의 중복 여부를 최종 판단한다. 제안된 방법은 실제 동영상 서비스 환경에서 우수한 인식률과 낮은 오인식률을 가질 뿐만아니라 실제 적용이 가능할 정도의 빠른 정합 속도를 얻을 수 있었다.

동영상 카투닝 시스템을 위한 자동 프레임 추출 기법 (Auto Frame Extraction Method for Video Cartooning System)

  • 김대진;구떠올라
    • 한국콘텐츠학회논문지
    • /
    • 제11권12호
    • /
    • pp.28-39
    • /
    • 2011
  • 멀티미디어 산업의 발달과 함께 디지털 콘텐츠 시장의 확산을 가져오고 있다. 그 중 인터넷 만화와 같은 디지털 만화 시장의 확장은 급속하게 커지고 있어서, 콘텐츠의 부족과 다양성 때문에 동영상 카투닝에 대한 연구가 계속되고 있다. 지금까지는 동영상 카투닝은 비사실적 렌더링과 말풍선에 초점이 맞추어졌으나, 이러한 것들을 적용하기 위해서는 카투닝 서비스에 적합한 프레임 추출이 우선시 되어야만 한다. 기존의 방법으로는 동영상의 장면전환이 일어나는 샷(shot)안의 프레임을 추출하여, 사용자가 지정한 영역을 임의의 색상으로 렌더링(Rendering)하는 시스템이 있다. 하지만 이러한 방법은 사람의 손을 거치는 반자동적인 방법으로서 정확한 프레임 추출을 위해 사람의 손을 거쳐야하는 단점이 있다. 따라서 본 논문에서는 이러한 문제점을 해결하고, 보다 정확한 카투닝에 적용할 프레임을 추출하기 위해 오디오 및 비디오 분리를 통한 방법을 제안한다. 먼저 동영상으로부터 오디오와 비디오를 분리한다. 오디오는 먼저 MFCC와 영교차율의 특징을 추출하고, 이 특징 정보를 미리 학습된 데이터와 GMM 분류기를 통하여 음악, 음성, 음악+음성으로 분류한 후 음성 영역을 설정한다. 비디오는 히스토그램을 이용한 방법과 같은 일반적인 장면전환 프레임을 추출 후 얼굴 검색을 통해서 만화에서 의미가 있는 프레임을 추출한다. 그 후 음성 영역내에 얼굴이 존재하는 장면전환 프레임이나 일정 시간동안 음성이 지속되는 영역 중 장면전환 프레임을 추출하여 동영상 카투닝에 적합한 프레임을 자동으로 추출한다.

해마신경망을 이용한 관심 객체 기반의 효율적인 멀티미디어 검색 시스템의 개발 (The Development of Efficient Multimedia Retrieval System of the Object-Based using the Hippocampal Neural Network)

  • 정석훈;강대성
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.57-64
    • /
    • 2006
  • 본 논문에서는 해마신경망(HCNN:HippoCampal Neural Network)을 이용하여 사용자 친화적인 객체 기반 멀티미디어 검색시스템을 제안한다. 내용 기반 검색(Content-based Retrieval)에 관한 대부분의 기존의 질의 방법은 입력 영상에 의한 질의 또는 컬러(color), 형태(shape), 질감(texture)등과 같은 low-level의 특징을 사용한다. 본 논문에서 제안하는 방법은 MPEG 기반의 압축 비디오 스트림으로부터 장면 전환 검출을 수행하여 샷을 검출한다. 이 샷 프레임에서 컬러 객체의 자동 추출을 위하여 similar colorization과 ACE(Adaptive Circular filter and Edge) 알고리즘을 사용한다. 그리고 이렇게 추출된 특징을 해마 신경망을 통하여 학습한 후 멀티미디어 검색 시스템을 구성한다. 제안하는 해마 신경망은 호감도 조정에 의해서 입력되는 영상패턴의 특징들을 흥분학습과 억제학습을 이용하여 불필요한 특징은 억제시키고 중요한 특징은 흥분학습을 통해 장기기억 시켜서 적응성 있는 실시간 검색 시스템을 구현한다.

비-파라미터 기반의 움직임 분류를 통한 비디오 검색 기법 (Video retrieval method using non-parametric based motion classification)

  • 김낙우;최종수
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.1-11
    • /
    • 2006
  • 본 논문에서는 샷(shot) 기반 비디오 색인 구조에서 비-파라미터(non-parametric) 기반의 움직임 분류를 통한 비디오 영상 검색 기법을 제안한다. 본 논문에서 제안하는 비디오 검색 시스템은 장면 전환 기법을 통해 얻은 샷 단위의 짧은 비디오로부터 대표 프레임과 움직임 정보를 취득한 후, 이를 통해 시각적 특징과 움직임 특징을 추출하여 유사도를 비교함으로써 시-공간적 특징을 이용한 실시간 검색이 가능하도록 구현되었다. 비-파라미터 기반의 움직임 특징의 추출은 MPEG 압축 스트림으로부터 정규화된 움직임 벡터계(界)를 추출한 후, 각각의 정규화된 움직임 벡터를 여러 개의 각도 빈(bin)으로 양자화하고 이의 평균과 분산, 방향 등을 고려함으로써 효과적으로 이루어진다. 대표 프레임에서의 시각 특징 검출을 위해서는 에지 기반의 공간 기술자를 이용하였다. 실험 결과는 영상 색인 및 검색에 있어서 제안된 시스템이 매우 효과적임을 잘 나타내고 있다. 데이터베이스 내 영상의 색인을 위해서는 R*-tree 구조를 이용한다.

압축비디오에서 인트라픽쳐 부분 복호화를 이용한 샷 움직임 분류 (Shot Motion Classification Using Partial Decoding of INTRA Picture in Compressed Video)

  • 김강욱;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제14권7호
    • /
    • pp.858-865
    • /
    • 2011
  • 압축 상태에서 비디오 구조화 및 분류를 하기 위해서는 먼저 압축된 비디오에서 장면전환을 검출해서 비디오를 샷(shot)으로 분리하고 샷내 움직임 정보에 따라 샷을 특징화해야 한다. 장면전환을 검출하는 방법에는 DC 영상의 분산값 이나 복원영상의 에지 픽셀의 분포를 이용한 방법, P-픽쳐의 인트라 블록의 개수를 이용한 방법 등이 있으며 움직임에 따른 샷의 특징 분류는 움직임 벡터의 각 성분들의 평균값을 이용하는 것이 일반적인 방법이다. 그러나 움직임 벡터를 이용한 샷 움직임 분류 방법은 움직임 벡터 자체가 블록의 국부적(local) 움직임을 나타내는 것이므로 글로벌(global)한 카메라 동작을 예측하기 위해서는 많은 제약이 있다. 따라서 본 논문에서는 이러한 것을 보완하기 위해서 MPEG으로 압축된 비디오에서 인트라 프레임을 부분적으로 복호화 하고 빠른 1차원적인 연산을 통해 수평 및 수직 방향으로 평균 밝기 값의 변화 방향을 추정하여 좀더 정확히 샷내 카메라의 움직임을 분류하고자 한다.

자막 정보를 이용한 축구 비디오 하이라이트 생성 (Creation of Soccer Video Highlights Using Caption Information)

  • 신성윤;강일고;이양원
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권5호
    • /
    • pp.65-76
    • /
    • 2005
  • 디지털 비디오는 대용량의 저장 공간을 필요로 하는 매우 긴 데이터이다. 따라서 비디오 시청자들은 원래의 긴 비디오를 시청하기 전에 요약된 버전을 시청하기를 원한다. 특히, 스포츠 분야에서 하이라이트 비디오는 자주 시청된다. 다시 말해서, 하이라이트 비디오는 비디오 시청자에게 그 비디오를 시청할 가치가 있는지를 결정하게 한다. 본 논문에서는 시간과 공간 형태로 된 자막의 구조적 특징을 이용하여 축구 비디오 하이라이트를 생성한다. 이와 같은 구조적 특징들은 자막 프레임 구간과 자막 키 프레임을 추출하는데 사용된다. 하이라이트 비디오는 자막 키 프레임의 장면 재설정, 논리적 색인화, 그리고 하이라이트 생성 규칙에 의하여 생성된다. 마지막으로, 하이라이트 비디오와 비디오 세그먼트들은 비디오 시청자가 브라우저를 통하여 원하는 항목을 선택함으로서 검색되고 브라우징 될 수 있다

  • PDF