• 제목/요약/키워드: 비디오기술

Search Result 1,665, Processing Time 0.029 seconds

Video Modeling Supporting Spatio-Temporal Relationship (시공간 관계를 지원하는 비디오 모델링)

  • 복경수;유재수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.256-258
    • /
    • 2001
  • 최근 컴퓨터 응용 기술의 발달로 비디오 데이터에 대한 처리의 필요성이 증가하고 있다. 비 정형화된 비디오에 대한 검색을 효율적으로 처리하기 위해서는 비디오의 논리적 구조와 의미적 내용을 표현할 수 있는 비디오 모델링 기법이 필요하다. 본 논문에서는 비디오의 논리적 구조는 물론 비디오 내에 포함된 의미적인 내용을 표현하기 위한 비디오 모델링 방법을 제안한다. 제안하는 모델링 기법은 의미적 내용을 효과적으로 표현하지 못하는 기존의 구조 모델링의 문제점을 해결하고 의미적인 내용들간의 시공간적 관계를 정의한다. 또한 시공간적 관계를 통한 의미적 내용에 대한 검색을 효과적으로 수행할 수 있도록 한다.

  • PDF

Video Retrieval based on Objects Motion Trajectory (객체 이동 궤적 기반 비디오의 검색)

  • 유웅식;이규원;김재곤;김진웅;권오석
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.25 no.5B
    • /
    • pp.913-924
    • /
    • 2000
  • This paper proposes an efficient descriptor for objects motion trajectory and a video retrieval algorithm based on objects motion trajectory. The algorithm describes parameters with coefficients of 2-order polynomial for objects motion trajectory after segmentation of the object from the scene. The algorithm also identifies types, intervals, and magnitude of global motion caused by camera motion and indexes them with 6-affine parameters. This paper implements content-based video retrieval using similarity-match between indexed parameters and queried ones for objects motion trajectory. The proposed algorithm will support not only faster retrieval for general videos but efficient operation for unmanned video surveillance system.

  • PDF

Development of a Haptic Based Video and Audio Streaming Method (촉각기반 비디오 및 오디오 스트리밍 기술 개발)

  • You, Yong-Hee;Cho, Dong-Hyun;Lee, Hwan-Mun;Kim, Ki-Kwon;Jun, Kyung-Koo;Sung, Mee-Young
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.538-541
    • /
    • 2009
  • In this paper, we explain a haptic based video and audio streaming method. The proposed method is to stream tactile and vibration information along with video and audio information. The video screen is divided into a grid, and each cell has tactile information which is corresponding to the content. At the same time, the sound stream is also analyzed and vibration information is applied. These data are streamed to clients and displayed through a haptic device and a vibration interface. So, a client will be more immersed into the video and audio by touching and getting vibrations.

  • PDF

Haptic Rendering Technology for Touchable Video (만질 수 있는 비디오를 위한 햅틱 렌더링 기술)

  • Lee, Hwan-Mun;Kim, Ki-Kwon;Sung, Mee-Young
    • Journal of Korea Multimedia Society
    • /
    • v.13 no.5
    • /
    • pp.691-701
    • /
    • 2010
  • We propose a haptic rendering technology for touchable video. Our touchable video technique allows users for feeling the sense of touch while probing directly on 2D objects in video scenes or manipulating 3D objects brought out from video scenes using haptic devices. In our technique, a server sends video and haptic data as well as the information of 3D model objects. The clients receive video and haptic data from the server and render 3D models. A video scene is divided into small grids, and each cell has its tactile information which corresponds to a specific combination of four attributes: stiffness, damping, static friction, and dynamic friction. Users can feel the sense of touch when they touch directly cells of a scene using a haptic device. Users can also examine objects by touching or manipulating them after bringing out the corresponding 3D objects from the screen. Our touchable video technique proposed in this paper can lead us to feel maximum satisfaction the haptic-audio-vidual effects directly on the video scenes of movies or home-shopping video contents.

A Trend of 3D Video Processing Technologies (3차원 비디오 처리 기술 동향)

  • Kang, H.J.;Kim, D.H.;Yun, K.J.;Cho, S.H.;Ahn, C.H.
    • Electronics and Telecommunications Trends
    • /
    • v.19 no.4 s.88
    • /
    • pp.45-52
    • /
    • 2004
  • 3차원 비디오는 차세대 정보 통신 서비스 분야의 핵심 기술로서 사용자에게 보다 고차원의 서비스를 제공하는 것으로 미래 시장을 선점하기 위한 기술개발 노력이 각국에서 이루어지고 있다. 이러한 각국의 노력을 반영하여 MPEG은 3차원 비디오에 대한 서비스 모델 창출 및 표준화를 진행하고 있다. 본 고에서는 획득, 처리, 디스플레이 방식에 따라 분류되 어진 3차원 비디오를 소개하고, 이를 이용한 각각의 서비스 모델을 제시한다. 또한, 국내외의 3차원 비디오에 대한 기술개발 동향 및 향후 개발 방향에 대하여 설명한다.

Automatic Music-Story Video Generation Using Music Files and Photos in Automobile Multimedia System (자동차 멀티미디어 시스템에서의 사진과 음악을 이용한 음악스토리 비디오 자동생성 기술)

  • Kim, Hyoung-Gook
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.9 no.5
    • /
    • pp.80-86
    • /
    • 2010
  • This paper presents automated music story video generation technique as one of entertainment features that is equipped in multimedia system of the vehicle. The automated music story video generation is a system that automatically creates stories to accompany musics with photos stored in user's mobile phone by connecting user's mobile phone with multimedia systems in vehicles. Users watch the generated music story video at the same time. while they hear the music according to mood. The performance of the automated music story video generation is measured by accuracies of music classification, photo classification, and text-keyword extraction, and results of user's MOS-test.

Realtime Video Monitoring System for Emergency Telemedicine System In Mobile Device (응급 원격 진료 시스템을 위한 모바일 장치에서의 실시간 비디오 모니터링 시스템 구현)

  • Kim, Sang-Yong;Kim, Jung-Chae;Yoo, Sun-K.
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.491-492
    • /
    • 2008
  • 무선통신 기술과 모바일 장비의 발전에 따라 의사는 언제, 어디서나 환자의 상태를 실시간으로 모니터링 할 수 있게 되었다. 이 연구에서는 원격지 PC에서 인코딩한 환자의 비디오 영상을 무선통신으로 전송한다.[1] 이때, 모바일 장비(PDA)는 PC에서 보낸 비디오 영상을 전송 받고, 디코딩하여 화면에 출력한다. 이번 논문에서 개발한 시스템은 후자에 기술된 모바일 실시간 비디오 모니터링 시스템이다. 개발에 사용된 비디오 코덱은 MPEG-4 계열의 오픈소스 코덱인 Xvid이다. 데스탑 PC용 Xvid 오픈소스를 모바일 디바이스에서 사용할 수 있도록 컨버전하여 사용하였다. 무선 통신망은 WiBro를 사용하여 고화질 비디오를 전송받을 수 있는 대역폭을 확보였다. 이 논문 목적은 의사가 PC앞에 앉아 있지 않아도 이동간에 환자의 현재 상태를 실시간으로 확인할 수 있음으로서 의사의 작업효율을 증진시키는데 있다.

  • PDF

News Video Editing System (뉴스비디오 편집시스템)

  • 고경철;이양원
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2000.10a
    • /
    • pp.421-425
    • /
    • 2000
  • The efficient researching of the News Video is require the development of video processing and editing technology to extract meaningful information from the Video data. The advanced information nations are researching the Video Editing System and recently they are concerned to research the perfect practical system. This paper represents the System that can extract and edit the meaningful information from the Video Data by the User demand through the Scene change detection and Editing system by the automatic/ passive classification and this system represents more efficient scene change detection algorithm which was selected by the user.

  • PDF

A Study on the Content-Based Video Information Indexing and Retrieval Using Closed Caption and Speech Recognition (캡션정보 및 음성인식을 이용한 내용기반 비디오 정보 색인 및 검색에 관한 연구)

  • 손종목;김진웅;배건성
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1999.11b
    • /
    • pp.141-145
    • /
    • 1999
  • 뉴스나 드라마, 영화 등의 비디오에 대한 검색 시 일반 사용자의 요구에 가장 잘 부합되는 결과를 얻기 위해 비디오 데이터의 의미적 분석과 색인을 만드는 것이 필요하다. 일반적으로 음성신호가 비디오 데이터의 내용을 잘 나타내고 비디오와 동기가 이루어져 있으므로, 내용기반 검색을 위한 비디오 데이터 분할에 효율적으로 이용될 수 있다 본 논문에서는 캡션 정보가 주어지는 방송뉴스 프로그램을 대상으로 효율적인 검색, 색인을 위한 비디오 데이터의 분할에 음성인식기술을 적용하는 방법을 제안하고 그에 따른 실험결과를 제시한다.

  • PDF

Completion of Occluded Objects in a Video Sequence using Spatio-Temporal Matching (시공간 정합을 이용한 비디오 시퀀스에서의 가려진 객체의 복원)

  • Heo, Mi-Kyoung;Moon, Jae-Kyoung;Park, Soon-Yong
    • The KIPS Transactions:PartB
    • /
    • v.14B no.5
    • /
    • pp.351-360
    • /
    • 2007
  • Video Completion refers to a computer vision technique which restores damaged images by filling missing pixels with suitable color in a video sequence. We propose a new video completion technique to fill in image holes which are caused by removing an unnecessary object in a video sequence, where two objects cross each other in the presence of camera motion. We remove the closer object from a camera which results in image holes. Then these holes are filled by color information of some others frames. First of all, spatio-temporal volumes of occluding and occluded objects are created according to the centroid of the objects. Secondly, a temporal search technique by voxel matching separates and removes the occluding object. Finally. these holes are filled by using spatial search technique. Seams on the boundary of completed pixels we removed by a simple blending technique. Experimental results using real video sequences show that the proposed technique produces new completed videos.