• Title/Summary/Keyword: 캡쳐 프레임

Search Result 54, Processing Time 0.026 seconds

A Study of efficient Bandwidth Control for Real-Time Multi-Channels Video Processing (실시간 다채널 비디오 처리에 대한 효율적인 대역폭 제어 방법 연구)

  • Kim, Chan-Gyu;Hong, In-Hwa;Lee, Sang-Won;Park, Jeong-Beom
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.1503-1506
    • /
    • 2005
  • 비디오 코딩 기술과 더불어 디지털 비디오 장치의 급속적인 발전으로 최근에 디지털 비디오 시스템에 대한 관심은 극도로 향상되어 있다. 특히, 비디오 압축 기술을 바탕으로 하고 있는 디지털 비디오 레코딩 시스템, DVR은 실제로 채널 확장에 따른 영상의 압축과 복원이 실시간으로 변화되지 않는 비(非) 대층형 압축 기술에 대한 문제점과 화면정지 시의 화질 문제, 초당 녹화 프레임 수를 높이기 위한 압축 기술의 향상과 이에 따른 화질 저하 문제를 모두 해결할 수 있는 기술이 절실히 요구되어지고 있는 가운데, 본 논문에서는 비디오 채널의 확장에 따른 기술적인 부담을 안고 실시간으로 디지털로 기록하는 동안에 캡쳐된 비디오 프레임들의 다채널의 실시간 비디오 데이터 처리에 대한 효과적인 메모리 대역폭 제어와 PCI 대역폭을 제어하는 방법을 통해 시스템 내부의 계산상의 비용을 감소시키고 시스템의 성능을 향상 시킬 수 있는 방법을 제시하고자 한다.

  • PDF

New Memory Based Capture Scheme for Fast Launching of Web Browsers (웹 브라우저의 고속 실행을 위한 뉴 메모리 기반 캡처 기법)

  • Kim, Kyu-Sik;Kim, Tae-Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.588-590
    • /
    • 2015
  • 본 논문에서는 웹 브라우저의 사용자 응답성을 개선하기 위해 뉴 메모리를 활용하는 기법을 제안한다. 프레임버퍼에 저장된 기본 웹 페이지의 실행 화면을 뉴 메모리에 캡쳐하고, 이를 웹 브라우저 실행 시 그대로 복원함으로써 사용자가 체감하는 웹 브라우저의 응답성을 크게 개선한다. 또한 제안하는 기법을 뉴 메모리 에뮬레이션 보드에 직접 구현하여 그 성능을 검증하고자 한다.

3D Pose Estimation from Selective View for 3D Volumetric Data Deformation (3 차원 볼류메트릭 데이터 변형을 위한 선택적 시점에서의 3 차원 포즈 추정)

  • Lee, Sol;Kim, Ji-Hyun;Park, Jung-Tak;Park, Byung-Seo;Seo, Young-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.156-157
    • /
    • 2022
  • 본 논문에서는 선택적 시점에서의 2D 포즈 추정(pose estimation) 결과를 정합 하여 정확도 높은 3D 스켈레톤(skeleton)을 만들어 낸다. 여러 프레임의 3D 데이터를 10 도 간격으로 36 방향에서 투영한 뒤, 2D 포즈 추정 결과 신뢰도가 높은 시점에서의 결과만을 선별하여 3 차원으로 정합 한다. 이때 사용하는 시점의 개수를 달리하며 정확도에 미치는 영향을 분석하여 실험적으로 정확도가 높은 최소의 시점 개수를 정하였다. 또한, 정합 한 3D 뼈대를 모션 캡쳐(motion capture) 센서와 비교하여 제안하는 알고리즘에 의해 3D 포즈 추정의 정확도가 향상되는 것을 확인했다.

  • PDF

Design and Realization of Stereo Vision Module For 3D Facial Expression Tracking (3차원 얼굴 표정 추적을 위한 스테레오 시각 모듈 설계 및 구현)

  • Lee, Mun-Hee;Kim, Kyong-Sok
    • Journal of Broadcast Engineering
    • /
    • v.11 no.4 s.33
    • /
    • pp.533-540
    • /
    • 2006
  • In this study we propose to use a facial motion capture technique to track facial motions and expressions effectively by using the stereo vision module, which has two CMOS IMAGE SENSORS. In the proposed tracking algorithm, a center point tracking technique and correlation tracking technique, based on neural networks, were used. Experimental results show that the two tracking techniques using stereo vision motion capture are able to track general face expressions at a 95.6% and 99.6% success rate, for 15 frames and 30 frames, respectively. However, the tracking success rates(82.7%,99.1%) of the center point tracking technique was far higher than those(78.7%,92.7%) of the correlation tracking technique, when lips trembled.

Body Motion Retargeting to Rig-space (리깅 공간으로의 몸체 동작 리타겟팅)

  • Song, Jaewon;Noh, Junyong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.20 no.3
    • /
    • pp.9-17
    • /
    • 2014
  • This paper presents a method to retarget a source motion to the rig-space parameter for a target character that can be equipped with a complex rig structure as used in traditional animation pipelines. Our solution allows the animators to edit the retargeted motion easily and intuitively as they can work with the same rig parameters that have been used for keyframe animation. To acheive this, we analyze the correspondence between the source motion space and the target rig-space, followed by performing non-linear optimization for the motion retargeting to target rig-space. We observed the general workflow practiced by animators and apply this process to the optimization step.

Real Time Moving Object Detection Based on Frame Difference and Doppler Effects in HSV color model (HSV 컬러 모델에서의 도플러 효과와 영상 차분 기반의 실시간 움직임 물체 검출)

  • Sanjeewa, Nuwan;Kim, Won-Ho
    • Journal of Satellite, Information and Communications
    • /
    • v.9 no.4
    • /
    • pp.77-81
    • /
    • 2014
  • This paper propose a method to detect moving object and locating in real time from video sequence. first the proposed method extract moving object by differencing two consecutive frames from the video sequence. If the interval between captured two frames is long, it cause to generate fake moving object as tail of the real moving object. secondly this paper proposed method to overcome this problem by using doppler effects and HSV color model. finally the object segmentation and locating is done by combining the result that obtained from steps above. The proposed method has 99.2% of detection rate in practical and also this method is comparatively speed than other similar methods those proposed in past. Since the complexity of the algorithm is directly affects to the speed of the system, the proposed method can be used as low complexity algorithm for real time moving object detection.

Interactive Realtime Facial Animation with Motion Data (모션 데이터를 사용한 대화식 실시간 얼굴 애니메이션)

  • 김성호
    • Journal of the Korea Computer Industry Society
    • /
    • v.4 no.4
    • /
    • pp.569-578
    • /
    • 2003
  • This paper presents a method in which the user produces a real-time facial animation by navigating in the space of facial expressions created from a great number of captured facial expressions. The core of the method is define the distance between each facial expressions and how to distribute into suitable intuitive space using it and user interface to generate realtime facial expression animation in this space. We created the search space from about 2,400 raptured facial expression frames. And, when the user free travels through the space, facial expressions located on the path are displayed in sequence. To visually distribute about 2,400 captured racial expressions in the space, we need to calculate distance between each frames. And we use Floyd's algorithm to get all-pairs shortest path between each frames, then get the manifold distance using it. The distribution of frames in intuitive space apply a multi-dimensional scaling using manifold distance of facial expression frames, and distributed in 2D space. We distributed into intuitive space with keep distance between facial expression frames in the original form. So, The method presented at this paper has large advantage that free navigate and not limited into intuitive space to generate facial expression animation because of always existing the facial expression frames to navigate by user. Also, It is very efficient that confirm and regenerate nth realtime generation using user interface easy to use for facial expression animation user want.

  • PDF

Automatic Anticipation Effect Generation for Character Animation (캐릭터 애니메이션을 위한 기대 효과의 자동 생성)

  • Kim, Jong-Hyuk;Choi, Jung-Ju
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.852-858
    • /
    • 2006
  • 전통적으로 3차원 애니메이션에서 캐릭터의 동작에 관한 연구는 주로 동작의 사실적인 표현에 중점을 두고 있다. 그러나 이러한 사실적인 애니메이션은 전통적인 2차원 애니메이션에 익숙한 관객들이 어색함을 느끼는 원인이 되기도 한다 이로 인해 전통적인 2차원 애니메이션의 기법을 3차원 애니메이션에 적용하는 비사실적 (non photorealistic) 애니메이션 기법이 연구되고 있다. 본 논문에서는 전통적인 2차원 애니메이션기법 중 하나인 기대 효과(anticipation effect)를 3차원 애니메이션의 캐릭터 동작에 적용하는 자동화된 방법을 제시한다. 전통적인 2차원 애니메이션 기법에 따르면 기대 효과는 애니메이션을 더 설득력 있고 풍부하게 만드는 역할을 한다고 알려져 있다. 기대 효과는 주요한 동작이 일어나기 이전에 반대 방향의 동작이 이루어지는 것으로 나타난다. 3차원 애니메이션에서 캐릭터의 동작은 각 관절의 회전과 캐릭터 중심의 이동으로 표현되기 때문에, 주요한 동작에 대하여 각 관절의 회전과 캐릭터 중심의 이동에서 반대 방향의 움직임을 찾아 주요한 동작 이전에 연결하는 것으로 기대 효과의 동작을 표현할 수 있다. 모션 캡쳐나 키 프레임 방법을 통해 미리 제작된 애니메이션 파일로부터 기대효과를 생생하기 위해 동작 데이터를 분석하여, 기대 효과의 추가가 필요한 주요 동작의 각 관절별 회전을 외삽하여 반대 방향의 회전 움직임을 생생하고 무게 중심의 이동을 예측하여 주요 동작과 반대 방향의 움직임을 갖는 기대 동작을 생성한다. 이후, 생성된 기대 동작과 원래의 동작을 기대 효과의 타이밍을 고려하여 합성하는 것으로 기대효과가 포함된 자연스러운 애니메이션 동작을 얻을 수 있다.

  • PDF

Digital Character Motion Using Motion Capturing System (광학식 모션 캡쳐(Optical Motion Capture)방식을 이용한 디지털 캐릭터 움직임)

  • Choi, Tae-Jun;Ryu, Seuc-Ho;Lee, Dong-Lyeor;Lee, Wan-Bok
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.8
    • /
    • pp.109-116
    • /
    • 2007
  • Motion Capture in multimedia contents of the imagination world is utilized in various field such as game, movie, TV. Motion Capture technology of most of game is utilized. As well as is more realistic if use motion Capture and superior time and monetary aspect than previous key frame (Key-Framing) way as well as can display screen that do dynamic, there is more excellent advantage in qualitative aspect. But, is utilizing in some specialty companies and use example was not informed much about problem when is very lacking, and utilize yet in learned circles. Extract motion data of various action using optic motion Capture of motion Capture equipment in this treatise, and investigated about problem that appear when applied in character that is different from a person.

Server-Client applications for Capturing and Sending images in TV video (TV 동영상 화면 캡쳐 서버-클라이언트 애플리케이션 구현)

  • Park, Youn-Sun;Kim, Jung-Hwan;Nam, Yoon-Suk;Jung, Moon-Ryul
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2005.11a
    • /
    • pp.255-259
    • /
    • 2005
  • 본 논문은 시청자가 TV를 시청하다가 마음에 드는 화면이 있으면, 이를 캡춰해서 친구들에게 메시지로 보내는 서비스를 구현하는 방법을 기술한다. 이를 위해서는 셋톱박스에서 실행되는 Xlet 애플리케이션에서 비디오 스트림의 특정화면을 캡춰할 수 있어야 하는데, 현재 미들웨어는 이런 기능을 제공하고 있지 않다. 따라서, 본 논문에서는 Xlet application 에서 시청자가 지정한 화면의 시점값을 방송국 서버로 전송하고, 서버에서 해당 화면을 캡춰하여 이를 시청자가 원하는 수신자에게 보내주는 방법을 사용한다. 미들웨어 API 표준에서 현재의 NPT (Normal Play Time) 을 알려주는 API 를 제공하므로, 애플리케이션에서 시청자가 원하는 시점의 NPT 를 구해 이를 방송국 서버로 보내고, 서버에서는 이 NPT 에 해당되는 동영상의 미디어 타임을 구해, 그 시간에 해당되는 프레임을 계산하여 화면을 캡춰한다. 본 기술을 활용하면 서버에서 캡춰된 화면을 Mobile, Web 등의 매체에도 전송할 수 있으므로 유무선통합, 방통융합형 서비스로 확장해 나갈 수 있다.

  • PDF