• Title/Summary/Keyword: 프레임 버퍼 객체

Search Result 7, Processing Time 0.023 seconds

PAN/TILT Camera Object Tracking System based on Histogram of differences of frames (차영상의 히스토그램 기반의 PAN/TILT 카메라 객체추적 시스템)

  • Lee, Man-Seok;Choi, Jin-Ku
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10a
    • /
    • pp.377-380
    • /
    • 2006
  • 최근 영상 데이터를 사용하여 서비스를 하는 분야가 늘어감에 따라 그 중 보안과 관련하여 영상데이터 내에 존재하는 객체를 추출하여 추적하는 방법에 대한 연구가 지속적으로 발전하고 있다. 최근에는 프레임버퍼링을 사용하여 초당 30프레임 이상의 영상을 처리하는 경우가 많다. 하지만 영상을 통한 객체 추적의 경우 빠르게 객체를 인지하여 움직임을 추적할 수 있는 기술이 드물다. 본 논문에서는 저속 처리되는 문제를 극복하기 위하여 프레임 버퍼링을 사용하여 객체를 추적할 때 차영상의 히스토그램을 사용할 것을 제안한다. 이에 따라 히스토그램을 사용하는 객체추적 시스템을 설계 및 구현하고, 본 추적능력을 검증한 결과 2배에 가까운 성능이 향상됨을 얻었다.

  • PDF

A Real-Time Multiple Circular Buffer Model for Streaming MPEG-4 Media (MPEG-4 미디어 스트리밍에 적합한 실시간형 다중원형버퍼 모델)

  • 신용경;김상욱
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.9 no.1
    • /
    • pp.13-24
    • /
    • 2003
  • MPEG-4 is a standard for multimedia applications and provides a set of technologies to satisfy the needs of authors, service providers and end users alike. In this paper, we suggest a Real-time Multiple Circular Buffer (M4RM Buffer) model, which is suitable for streaming these MPEG-4 contents efficiently. M4RM buffer generates each structure of the buffer, which matches well with each object composing an MPEG-4 content, according to the transferred information, and manipulates multiple read/write operations only by its reference. It divides the decoder buffer and the composition buffer, which are described in the standard, by the unit of frame allocated to minimize the range of access. This buffer unit of a frame is allocated according to the object description. Also, it processes the objects synchronization within the buffer and provides APIs for an efficient buffer management to process the real-time user events. Based on the performance evaluation, we show that M4RM buffer model decreases the waiting time in a buffer frame, and so allows the real-time streaming of an MPEG-4 content using the smaller size of the memory block than IM1-2D and Window Media Player.

Acceleration Method for Ray Casting using Depth Buffer (깊이 버퍼를 이용한 레이캐스팅의 고속화)

  • 김승완;송주환;권오봉
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.211-213
    • /
    • 2003
  • 이 논문에서는 레이캐스팅을 고속화하는 단순하고 효율적인 알고리즘을 제안한다. 범용 PC에서 볼륨데이터를 이용하여 애니메이션을 하기 위해서는 초당 30 프레임의 영상을 생성하여야하나 아직 이에 도달하지 못하여 고속화가 필요하다. 지금까지의 바운딩서피스 기반의 레이캐스팅의 고속화에서는 임의의 시점에서 객체(object)의 깊이(depth)값을 그 객체의 바운딩서피스를 깊이 버퍼에 투영하여 구하였다. 이와는 다르게 이 논문에서 제안하는 방법은 시점과 무관하게 x, y, z 세 방향의 깊이 버퍼를 설치하고 이 것을 이용하여 임의의 방향에서 시정에 대한 물체의 깊이 값을 구한다. 이렇게 함으로서 임의의 시점에서 객체의 깊이 값을 구하는 시간을 N$^3$에서 8$N_2$으로 줄일 수 있다. 여기서 N은 차원당 복셀의 개수이다.

  • PDF

Performance Estimation of Stream Synchronization Mechanism using Insertion Interactive Object and Variable Suffer (상호대화형 객체 삽입과 가변 버퍼 정책을 이용한 스트림 동기화 기법의 성능 평가)

  • 이병문;이양민;이재기
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.58-60
    • /
    • 2003
  • 현재 시간성에 민감한 서비스가 인터넷상에서 중요한 위치물 차지하고 있다 시간성이 민감한 서비스는 사용자와 상호대화를 가능케 하는 미디어 전송 방법 및 연속적 재생을 보장하기 위한 버퍼 정책이 요구된다 관련 연구에서는 설러 방법을 통해 동기화를 달성하고 있으나 상호대화라는 측면에서는 만족할 만한 해결책을 제시하지 못하고 있다. 본 논문에서는 상호대화형 객체(Interactive Object)를 각 미디어 파일에 삽입하고 객체들이 서로의 정보를 이용할 수 있는 함수를 설계하여 실시간에 원하는 미디어 프레임의 재생위치를 찾아냄으로써 동기화와 상호대화성이라는 문제를 해결하였다. 또한 네트워크에 대한 의존성 때문에 발생하는 불연속적인 재생은 크기를 변화시킬 수 있는 가변 버퍼를 이용함으로써 해결하였다. 그리고 두 가지 방법을 적용한 기법의 우수성을 시뮬레이션 실험을 통하여 확인하였다.

  • PDF

The Design of the Perspective Texture Mapping in Rasterizer Merged Frame Buffer Technology (래스터라이저-프레임버퍼 혼합 구조에서의 원근투영 텍스쳐 매핑의 설계)

  • Lee, Seung-Gi;Park, Woo-Chan;Han, Tack-Don
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.04a
    • /
    • pp.293-298
    • /
    • 2000
  • 최근 3차원 그래픽스 분야는 기존의 단순 이미지의 처리가 아닌 보다 나은 화질과 보다 많은 기법의 도입이 요구되어 지고 있다. 이에 본 논문에서는 가장 기본적인 실감영상의 표현 기법인 텍스쳐 매핑 기법에 대하여 논하였고, 3차원의 객체 공간에서 2차원의 스크린 공간으로의 변환으로 인해 생길 수 있는 문제점과 렌더링 알고리즘에 대해 분석하였으며, 이에 부합하는 렌더링 시스템을 설계, 분석하였다. 또한 본 시스템은 고성능 3차원 그래픽 처리를 위하여 채택되어지고 있는 프로세서-메모리 집적 방식을 이용, 래스터라이징 유닛과 프레임버퍼를 단일 칩으로 구성하여 렌더링과 텍스쳐 매핑 과정에서 발생할 수 있는 지연현상을 제거하였다.

  • PDF

Fast Computation of DWT and JPEG2000 using GPU (GPU를 이용한 DWT 및 JPEG2000의 고속 연산)

  • Lee, Man-Hee;Park, In-Kyu;Won, Seok-Jin;Cho, Sung-Dae
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.44 no.6
    • /
    • pp.9-15
    • /
    • 2007
  • In this paper, we propose an efficient method for Processing DWT (Discrete Wavelet Transform) on GPU (Graphics Processing Unit). Since the DWT and EBCOT (embedded block coding with optimized truncation) are the most complicated submodules in JPEG2000, we design a high-performance processing framework for performing DWT using the fragment shader of GPU based on the render-to-texture (RTT) architecture. Experimental results show that the performance increases significantly, in which DWT running on modern GPU is more than 10 times faster than on modern CPU. Furthermore, by replacing the DWT part of Jasper which is the JPEG2000 reference software, the overall processing is 2$\sim$16 times faster than the original JasPer. The GPU-driven render-to-texture architecture proposed in this paper can be used in the general image and computer vision processing for high-speed processing.

Acceleration of Viewport Extraction for Multi-Object Tracking Results in 360-degree Video (360도 영상에서 다중 객체 추적 결과에 대한 뷰포트 추출 가속화)

  • Heesu Park;Seok Ho Baek;Seokwon Lee;Myeong-jin Lee
    • Journal of Advanced Navigation Technology
    • /
    • v.27 no.3
    • /
    • pp.306-313
    • /
    • 2023
  • Realistic and graphics-based virtual reality content is based on 360-degree videos, and viewport extraction through the viewer's intention or automatic recommendation function is essential. This paper designs a viewport extraction system based on multiple object tracking in 360-degree videos and proposes a parallel computing structure necessary for multiple viewport extraction. The viewport extraction process in 360-degree videos is parallelized by composing pixel-wise threads, through 3D spherical surface coordinate transformation from ERP coordinates and 2D coordinate transformation of 3D spherical surface coordinates within the viewport. The proposed structure evaluated the computation time for up to 30 viewport extraction processes in aerial 360-degree video sequences and confirmed up to 5240 times acceleration compared to the CPU-based computation time proportional to the number of viewports. When using high-speed I/O or memory buffers that can reduce ERP frame I/O time, viewport extraction time can be further accelerated by 7.82 times. The proposed parallelized viewport extraction structure can be applied to simultaneous multi-access services for 360-degree videos or virtual reality contents and video summarization services for individual users.