• 제목/요약/키워드: multiple frames

검색결과 279건 처리시간 0.026초

2×2 MIMO를 적용한 63Mbps급 단일 반송파 변조 방식의 일대일 영상전송 무선방식 (63Mbps One-to-One Video Transmission Wireless Scheme in a Single-carrier Modulation with 2×2 Multiple Input Multiple Output)

  • 백정훈;김남호;김영우;황용승
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.1143-1151
    • /
    • 2019
  • 본 논문에서는 단일 반송파 변조방식에서 주파수 대역폭 당 전송효율을 극대화하는 무선전송 방식을 제안한다. 제안된 방식은 파일럿(pilot) 신호 및 전송 프레임 내에서 심벌(symbol)간 보호 구간(guard interval)을 제거하기 위하여 의사 결정 채널 추적(decision directed channel tracking) 기법을 적용하며 롤 오프율(roll-off factor)이 0.05인 레이즈드 코사인(raised cosine) 펄스 정형 기능을 수행한다. 또한, 두 개의 편파 안테나를 사용한 2×2 다중입출력(MIMO) 방식을 적용하며 등화와 신호 분리를 주파수 영역에서 수행한다. 이상의 기술이 적용된 무선 모뎀은 5MHz 주파수 대역폭 하에서 최대 63.3Mbps의 전송속도가 달성됨을 확인한다.

H.264/AVC 동영상 코덱용 고성능 움직임 추정 회로 설계 (Design of High-Performance Motion Estimation Circuit for H.264/AVC Video CODEC)

  • 이선영;조경순
    • 대한전자공학회논문지SD
    • /
    • 제46권7호
    • /
    • pp.53-60
    • /
    • 2009
  • H.264/AVC 코덱에 사용되는 움직임 추정은 다중 참조 프레임과 다양한 가변 블록을 이용하기 때문에 복잡하고 많은 연산을 필요로 한다. 본 논문에서는 이러한 문제를 해결하기 위해 다중 참조 프레임 선택, 블록 매칭, 블록 모드 결정, 움직임 벡터예측을 고속으로 처리하는 방법을 바탕으로 동작 속도가 빠른 정수 화소 움직임 추정 회로 구조를 제안한다. 또한 부화소 움직임 추정을 위한 고성능 보간 회로 구조도 제안한다. 제안한 회로는 Verilog HDL을 이용하여 RTL로 기술하였고, 130nm 표준 셀 라이브러리를 이용하여 합성하였다. 정수 화소 움직임 추정 회로는 77,600 게이트와 4개의 $32\times8\times32$-비트 듀얼-포트 SRAM으로 구현되었고 최대 동작 주파수는 161MHz이며 D1(720$\times$480)급 칼라 영상을 1초에 51장 까지 처리할 수 있다. 부화소 움직임 추정 회로는 22,478 게이트로 구현되었고 최대 동작주파수 200MHz에서 1080HD(1,920$\times$1,088)급 칼라 영상을 1초에 69장 까지 처리할 수 있다.

파티클 필터를 장착한 가중된 다중 인스턴스학습을 이용한 전방차량 추적 (Forward Vehicle Tracking Based on Weighted Multiple Instance Learning Equipped with Particle Filter)

  • 박근호;이준환
    • 한국지능시스템학회논문지
    • /
    • 제25권4호
    • /
    • pp.377-385
    • /
    • 2015
  • 본 논문에서는 파티클 필터를 장착하고 WMIL(Weighted Multiple Instance Learning)을 이용한 전방차량 추적 알고리즘을 제안하였다. 제안된 알고리즘에서 영상표현은 Haar-like 특징들을 사용하고 차량인식 결과는 추적하고자 하는 전방차량의 위치를 알아내는데 사용된다. 제안된 방식에서 WMIL과 파티클 필터를 결합하기 위해 기존의 외관모델을 이용한 추적에서 탐색영역에서 영상조각의 추적객체 신뢰도 맵을 계산하는 대신에 파티클 필터의 전파, 관측, 추정, 선택 그리고 분류기 훈련 등의 단계를 매 프래임 마다 순차적으로 수행하여 객체의 새로운 위치를 갱신하였다. 제안된 전방차량 추적방식은 실험을 통해 Ada-boost, MIL(Multiple Instance Learning)이나 WMIL 방법을 이용하는 추적에 비해 파티클 필터로 인해 계산량 증가는 불가피하나 추적의 질적인 정확도는 국도, 고속도로, 터널 및 시내도로 등의 실험 동영상에서 추적대상의 위치오차가 평균 4.5화소 정도로 기존의 추적방법들에 비해 크게 개선되는 것을 확인하였다.

비젼 카메라와 다중 객체 추적 방법을 이용한 실시간 수질 감시 시스템 (Real-time Water Quality Monitoring System Using Vision Camera and Multiple Objects Tracking Method)

  • 양원근;이정호;조익환;진주경;정동석
    • 한국통신학회논문지
    • /
    • 제32권4C호
    • /
    • pp.401-410
    • /
    • 2007
  • 본 논문에서는 비젼 카메라와 다중 객체 추적 방법을 이용한 실시간 수질 감시 시스템을 제안하였다. 제안된 시스템은 기존의 센서 방식의 감시 시스템과 달리 비젼 카메라를 이용해 객체를 개별적으로 분석한다. 비젼 카메라를 이용한 시스템은 영상에서 개별 객체를 분리해 내는 방법과, 연속하는 두 프레임간의 상관관계에 의해서 다수의 객체를 추적하는 방법으로 구성된다. 실시간 처리를 위해 비모수 예측을 사용하여 배경 영상을 생성하고 이를 이용해 객체를 추출한다. 비모수 예측을 이용하면 연산량을 줄이는 동시에 비교적 정확하게 객체를 추출 할 수 있다. 다중 객체 추적 방법은 개별 객체가 움직이는 방향, 속도 및 가속도를 이용해 다음 움직임을 예측하고 이를 기반으로 추적을 수행하였다. 또한 추적 성공률을 향상시키기 위해 예외처리 알고리즘을 적용하였다. 다양한 환경에서 실험한 결과 제안한 시스템은 처리 시간이 짧고 정확하게 다중 객체를 추적할 수 있어 실시간 수질 감시 시스템에 사용이 가능함을 확인하였다.

다수의 특징과 이진 분류 트리를 이용한 장면 전환 검출 (Shot Change Detection Using Multiple Features and Binary Decision Tree)

  • 홍승범;백중환
    • 한국통신학회논문지
    • /
    • 제28권5C호
    • /
    • pp.514-522
    • /
    • 2003
  • 본 논문에서는 다수의 특징과 이진 분류 트리를 이용하여 장면 전환점(shot change)을 검출하는 향상된 방식을 제안한다. 기존의 장면 전환점 검출 방식에서는 인접한 프레임간에 단일 특징과 고정된 임계값을 주로 사용하였다. 하지만, 비디오 시퀀스 내의 장면 전환점에서는 인접한 프레임간의 내용(content)인 컬러, 모양, 배경 혹은 질감 등이 동시에 변화한다. 따라서 본 논문에서는 단일 특징보다는 상호 보완 관계를 갖는 다수의 특징을 이용하여 장면 전환점을 효율적으로 검출한다. 그리고 장면 전환점의 분류를 위해서는 이진 분류 트리(binary classification tree)를 이용한다. 이 분류 결과에 따라 장면 전환점 검출에 사용될 중요한 특징들을 선별하고, 각 특징들의 최적 임계값을 구한다. 또한, 분류 성능을 확인하기 위해 교차검증(cross-validation)과 드롭 케이스(drop-case)를 수행하였다. 실험 결과, 제안된 기법이 단일 특징들만을 사용한 기존의 방법들 보다 El(Evaluated Index, 성능평가지수)에서 평균 2%의 성능이 향상됨을 알 수 있었다.

2단계 신경망과 계층적 프레임 탐색 방법을 이용한 MPEG 비디오 분할 (MPEG Video Segmentation using Two-stage Neural Networks and Hierarchical Frame Search)

  • 김주민;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권1_2호
    • /
    • pp.114-125
    • /
    • 2002
  • 본 논문에서는 MPEG 비디오 데이터의 컷(cut)과 디졸브(dissolve)를 검출하여 샷(shot) 단위로 분할하고 각 샷의 카메라 동작 또는 객체 움직임의 형태를 분류하는 방법을 제안하고자 한다. 정확한 샷의 위치와 카메라, 객체의 세분화된 동작을 구별하기 위한 전단계의 연구에서[1] 우선 MPEG 데이터의 I(Intra) 프레임의 DC(Direct Current) 계수를 분석하여 픽처 그룹을 Shot(장면이 바뀐 경우), Move(카메라 동작 또는 객체가 움직인 경우), Static(영상의 변화가 거의 없는 경우)으로 세분화하여 분류하였다. 이 과정에서 2단계 구조의 신경망을 구성하고 여러 종류의 특징을 서로 다른 해상도에서 추출하여 결합시키는 방법을 제안하였다. 다음 단계로 Shot 또는 Move로 분류된 픽처 그룹의 P(Predicted), B(Bi-directional) 프레임을 선별적, 계층적으로 탐색하여 컷의 정확한 발생 위치와 카메라 동작 또는 객체 움직임의 종류를 결정하는 방법을 제안한다. P, B 프레임의 매크로 블록의 종류별 분포를 통계적으로 이용하여 컷의 발생 위치를 검출하여, P, B 프레임의 매크로 블록 종류와 움직임 벡터를 동시에 사용하는 신경망을 구성하여 디졸브, 카메라 동작, 객체 움직임의 종류를 검출한다. 본 논문에서 제안하는 방법은 MPEG 데이터의 압축을 풀지 않은 상태에서 I 프레임의 DC 계수만을 사용하여 픽처 그룹을 분류하며, 분류된 픽처 그룹 내에서 일부의 P, B 프레임만을 계층적으로 선택하여 탐색함으로서 처리 시간을 감소시키고자 하였다. 세 종류의 서로 다른 비디오 데이터를 사용한 실험에서 93.9-100.0%로 픽처 그룹을, 96.1-100.0%로 컷을 검출하였다. 또한 두 종류의 비디오 데이터를 사용한 실험에서 90.13% 및 89.28%의 정확성으로 카메라 동작 또는 객체 움직임을 분류하였다.

3D DCT를 활용한 포인트 클라우드의 움직임 예측 및 보상 기법 (Point Cloud Video Codec using 3D DCT based Motion Estimation and Motion Compensation)

  • 이민석;김보연;윤상은;황용해;김준식;김규헌
    • 방송공학회논문지
    • /
    • 제26권6호
    • /
    • pp.680-691
    • /
    • 2021
  • 최근 3차원 스캐너 등을 이용한 3차원 영상 획득 기술이 발전함에 따라 AR(Augmented Reality)/VR(Virtual Reality) 분야에서 활용되는 콘텐츠가 다양해졌다. 이러한 3차원 영상을 나타내는 방식에는 여러 가지가 존재하며, 포인트 클라우드는 그중 하나다. 포인트 클라우드는 3차원 공간에 존재하는 물체를 표현하는 점들의 집합을 의미하고, 실제 객체를 촬영하여 정밀하게 데이터를 획득 및 표현할 수 있다는 장점이 있다. 하지만, 3차원 영상의 특성상 2차원 영상보다는 표현해야 하는 데이터가 많고, 특히 여러 장의 프레임으로 구성된 동적인 3차원 객체는 더욱 많은 데이터를 요구하기에 이를 효율적으로 다루기 위한 고효율의 압축 기술이 개발되어야 한다. 본 논문에서는 도메인 변환 방법인 3D DCT(3-Dimensional Discrete Cosine Transform)를 이용한 움직임 예측을 통하여 포인트 클라우드 영상의 I 프레임 및 P 프레임을 효율적으로 압축하는 기술을 제안한다. 그리고 본 논문에서 제안된 기술과 Intra 프레임 기반의 배경 기술 및 2D DCT 기반의 V-PCC(Video-based Point Cloud Compression)와의 비교를 통해 제안 기술의 압축 성능을 확인한다.

다중 참조 영상을 이용한 고속 H.264의 움직임 예측 모드 선택 기법 (Spatio-temporal Mode Selection Methods of Fast H.264 Using Multiple Reference Frames)

  • 권재현;강민정;류철
    • 한국통신학회논문지
    • /
    • 제33권3C호
    • /
    • pp.247-254
    • /
    • 2008
  • ITU-T와 MPEG에 의해 최근 표준화가 완성된 H.264는 가변 블록 크기 움직임 예측, 다중 참조 영상, 1/4화소단위 움직임 예측 및 보상, $4{\times}4$ 정수 단위 DCT, 비트율-왜곡 최적화(Rate-Distortion Optimization)등의 새로운 부호화 기술로 H.263, MPEG-4 등 기존 비디오 표준에 비해 더 좋은 부호화 효율을 제공하고 있다. 그러나 새로운 부호화 기술들은 H.264의 전반적인 복잡도를 심화시키는 주된 요인이므로, H.264의 실제 응용을 용이하게 하기 위해서는 이러한 기술에 대한 고속 알고리즘이 요구된다. 제안하는 방식은 부호화기의 복잡도에서 가장 큰 비중을 차지하는 가변 블록 크기 움직임 예측 부호화에서 부호화 모드를 효율적으로 생략함으로써 모드 결정을 빠르게 수행하는 고속 모드 결정법으로, 참조 영상의 수를 줄이는 방법과 예측 모드를 생략하는 방법으로 구분될 수 있다. 참조 영상의 수를 줄이는 방법의 경우 상위 $16{\times}16$ 매크로블록에서 최소의 SAD를 갖는 참조 영상을 선택하여 $16{\times}8$$8{\times}16$ 모드의 움직임을 예측하고, 이 중 다시 최적의 참조 영상을 선택하여 하위 모드의 움직임을 예측한다. 예측 모드를 생략하는 방법에서는 매크로블록의 가로와 세로 세분화 방향성을 이용하여 만약 $16{\times}16$ 모드가 선택될 경우, $8{\times}8$$4{\times}4$ 하위 모드만 수행하고, $16{\times}8$ 모드가 선택되면 $8{\times}4$, $8{\times}16$ 모드가 선택되면 $4{\times}8$ 모드에서만 움직임 예측을 수행할 수 있다. 실험 결과 모든 참조 영상을 사용하는 방식에 비해 평균 65%가량 속도가 향상된 반면 영상의 화질은 H.264 표준 및 기존 방식과 유사함을 PSNR을 통하여 증명한다.

실시간 비디오 시퀀스로부터 형태학적 영역 병합에 기반 한 다중 객체 검출 및 추적 (Multiple Objection and Tracking based on Morphological Region Merging from Real-time Video Sequences)

  • 박종현;백승철;;이귀상
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.40-50
    • /
    • 2007
  • 본 논문에서는 카메라로부터 획득 되어진 비디오 시퀀스로부터 다중 움직임 객체와 배경을 분할하고 시공간 정보에 기반 한 객체 추적 방법을 제안한다. 제안한 방법은 3단계로 구성되어 있다. 먼저 입력 비디오 시퀀스로부터 프레임 사이의 차를 이용한 움직임 영역과 움직임이 존재하지 않는 영역을 구분하여 적응적 경계간을 추출한다. 두 번째는 참조 배경영상과 적응적 경계값을 이용하여 움직임이 존재하는 영역으로부터 개략적 객체 분할을 수행하며, 분할된 이진영상에 형태학적 영역 병합 알고리즘을 적용하여 객체 병합을 수행하였다. 마지막으로 분할된 객체에 시공간 정보를 이용하여 객체에 임의의 ID를 할당하여 추적하였다. 카메라로부터 획득되어진 비디오 시퀀스를 이용한 실험에서 객체들의 분할 및 추적의 효율성과 시스템의 유용성을 확인하였다.

다중 카메라로 관심선수를 촬영한 동영상에서 베스트 뷰 추출방법 (A Best View Selection Method in Videos of Interested Player Captured by Multiple Cameras)

  • 홍호탁;엄기문;낭종호
    • 정보과학회 논문지
    • /
    • 제44권12호
    • /
    • pp.1319-1332
    • /
    • 2017
  • 최근 스포츠 중계에 동원되는 카메라 대수가 증가함에 따라 수많은 카메라 화면 중 순간적으로 최고의 화면을 고르는데 어려움이 있다. 지금까지 스포츠 경기를 촬영한 영상들에서 자동으로 최고의 화면을 선택하는 방법들이 연구되어 왔지만 배경이 고정된 영상들만을 고려해 배경이 움직이는 영상들을 고려하는 연구가 필요하다. 본 논문에서는 각 영상 별로 관심선수를 추적하여 획득한 영상 내 관심선수 영역을 대상으로 관심선수의 활동량, 얼굴 가시성, 다른 선수와의 겹침 정도, 이미지 블러 현상 정도를 매 프레임 마다 정량적으로 나타내어 정량화된 값을 기반으로 최고의 화면을 선택한다. 이렇게 선택된 베스트 뷰를 20명의 일반 사람들에게 베스트 뷰와 워스트 뷰를 선택하게 하여 사람들이 선택한 베스트 뷰, 워스트 뷰와 비교한 결과 베스트 뷰와 일치율이 54.5%로 낮았지만 반대로 워스트 뷰와 일치율이 9%로 확실히 사람들이 선호하지 않는 화면은 선택하지 않는 것을 알 수 있었다.