• Title/Summary/Keyword: Scene-graph

Search Result 71, Processing Time 0.03 seconds

Fast Scene Change Detection Using Macro Block Information and Spatio-temporal Histogram (매크로 블록 정보와 시공간 히스토그램을 이용한 빠른 장면전환검출)

  • Jin, Ju-Kyong;Cho, Ju-Hee;Jeong, Jae-Hyup;Jeong, Dong-Suk
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.48 no.1
    • /
    • pp.141-148
    • /
    • 2011
  • Most of the previous works on scene change detection algorithm focus on the detection of abrupt rather than gradual changes. In general, gradual scene change detection algorithms require heavy computation. Some of those approaches don't consider the error factors such as flashlights, camera or object movements, and special effects. Many scenes change detection algorithms based on the histogram show better performances than other approaches, but they have computation load problem. In this paper, we proposed a scene change detection algorithm with fast and accurate performance using the vertical and horizontal blocked slice images and their macro block informations. We apply graph cut partitioning algorithm for clustering and partitioning of video sequence using generated spatio-temporal histogram. When making spatio-temporal histogram, we only use the central block on vertical and horizontal direction for performance improvement. To detect camera and object movement as well as various special effects accurately, we utilize the motion vector and type information of the macro block.

Interactive Drama System (인터랙티브 드라마 시스템)

  • Kang, Woo-Jin;Lee, Je-Hee
    • Journal of the Korea Computer Graphics Society
    • /
    • v.11 no.3
    • /
    • pp.41-48
    • /
    • 2005
  • 시청자의 개입에 따라 내용이 변하는 영상은 영상산업 및 컴퓨터 그래픽스 분야에서 대중들의 새로운 흥미를 불러일으킨다. 그러나, 그러한 영상을 생성하는 시스템을 만드는 일은 제한된 개수의 영상으로 다양하면서 온전한 영상의 변화를 만들어야 하고, 사용자에게 그 변화를 조정하는 권한을 주어야 하기 때문에 어려운 일이다. 본 논문에서는 이 문제를 해결하는 한 방법으로 개별적인 실사 촬영물을 이용하여 인터랙티브 드라마를 생성하는 시스템을 제안한다. 이 시스템은 개별적인 영상 알갱이들을 부드럽게 연결하여, 다양한 줄거리와 완결된 구조를 갖춘 드라마를 생성한다. 또한, 사용자는 생성된 드라마의 내용, 길이, 장르, 등장인물을 원하는 대로 바꿀 수 있다. 이러한 시스템을 만들기 위하여 씬(scene)을 새로운 방법으로 모델링 하였고, 씬들을 적절히 선택하여 연결하기 위한 방법으로 씬 그래프(scene graph)를 제안한다. 최종 영상과 사용자와의 상호 작용을 위해서는 비젼, 모션, 그리고 스케치 기반 인터페이스를 제시한다. 끝으로 설문 조사를 통해 이 시스템의 유용성을 평가한다.

  • PDF

VIDEO INPAINTING ALGORITHM FOR A DYNAMIC SCENE

  • Lee, Sang-Heon;Lee, Soon-Young;Heu, Jun-Hee;Lee, Sang-Uk
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.01a
    • /
    • pp.114-117
    • /
    • 2009
  • A new video inpainting algorithm is proposed for removing unwanted objects or error of sources from video data. In the first step, the block bundle is defined by the motion information of the video data to keep the temporal consistency. Next, the block bundles are arranged in the 3-dimensional graph that is constructed by the spatial and temporal correlation. Finally, we pose the inpainting problem in the form of a discrete global optimization and minimize the objective function to find the best temporal bundles for the grid points. Extensive simulation results demonstrate that the proposed algorithm yields visually pleasing video inpainting results even in a dynamic scene.

  • PDF

Motion Visualization of a Vehicle Driver Based on Virtual Reality (가상현실 기반에서 차량 운전자 거동의 가시화)

  • Jeong, Yun-Seok;Cho, Bong-Jo;Son, Kwon
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2002.11a
    • /
    • pp.262-266
    • /
    • 2002
  • 본 연구에서는 가상환경 및 시뮬레이션에서 활용이 가능한 인체 모델을 개발하였다. 한국인 인체 측정 자료를 바탕으로 각 지체에 대한 기구학적 특성치와 상관관계를 얻고 인체 모델을 구성하였다. 인체 모델은 17개의 독립된 지체들로 구분되며 조인트로 연결된다. 구성된 모델은 가상환경의 신 그래프(scene graph)상에 자료화되고 DCS를 이용하여 애니메이션이 가능하도록 하였다. Madymo를 이용하여 차량 운전자의 전방 충돌 및 범퍼 통과시 지체의 거동을 해석하고 그 결과 값을 변환하여 OpenGL Performer 라이브러리를 통해 가상 공간에 가시화하였다.

  • PDF

Scene Graph Generation with Graph Neural Network and Multimodal Context (그래프 신경망과 멀티 모달 맥락 정보를 이용한 장면 그래프 생성)

  • Jung, Ga-Young;Kim, In-cheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.555-558
    • /
    • 2020
  • 본 논문에서는 입력 영상에 담긴 다양한 물체들과 그들 간의 관계를 효과적으로 탐지하여, 하나의 장면 그래프로 표현해내는 새로운 심층 신경망 모델을 제안한다. 제안 모델에서는 물체와 관계의 효과적인 탐지를 위해, 합성 곱 신경망 기반의 시각 맥락 특징들뿐만 아니라 언어 맥락 특징들을 포함하는 다양한 멀티 모달 맥락 정보들을 활용한다. 또한, 제안 모델에서는 관계를 맺는 두 물체 간의 상호 의존성이 그래프 노드 특징값들에 충분히 반영되도록, 그래프 신경망을 이용해 맥락 정보를 임베딩한다. 본 논문에서는 Visual Genome 벤치마크 데이터 집합을 이용한 비교 실험들을 통해, 제안 모델의 효과와 성능을 입증한다.

A Design of 3D Cooperative Authoring Tool for Virtual Environment (가상환경을 위한 3차원 협동 저작 도구의 설계)

  • 최명아;최은정;유지현;차지은;엄성용;김명주;이병걸
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.745-747
    • /
    • 2002
  • 본 논문에서는 가상환경을 위한 3차원 협동 저작도구를 제안한다. 이 시스템은 Client-Server 구조로서 Java분산 어플리케이션 모델인 3-tier 모델을 이용하였고, 3차원 장면 표면을 위해 자료구조는 Java 3D의 Scene Graph를 이용한다. 그리고 작업자의 역할 구분과 Client에서 공동작업물의 저장 기능을 부여하고 공동 작업의 결과를 Client에게 선택적으로 보여지게 함으로써 Client-Server 구조와 pessimistic Locking의 단점을 보완한다.

  • PDF

Automatic Image Segmention of Brain CT Image (뇌조직 CT 영상의 자동영상분할)

  • 유선국;김남현
    • Journal of Biomedical Engineering Research
    • /
    • v.10 no.3
    • /
    • pp.317-322
    • /
    • 1989
  • In this paper, brain CT images are automatically segmented to reconstruct the 3-D scene from consecutive CT sections. Contextual segmentation technique was applied to overcome the partial volume artifact and statistical fluctuation phenomenon of soft tissue images. Images are hierarchically analyzed by region growing and graph editing techniques. Segmented regions are discriptively decided to the final organs by using the semantic informations.

  • PDF

Object Picking and Concurrency for Collaborative Design System (협동설계시스템을 위한 오브젝트 Picking Concurrency)

  • 윤보열;송승헌;김응곤
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.631-633
    • /
    • 2001
  • 협동설계시스템에서의 공유 오브젝트는 3D 도형이 되며, 사용자가 임의의 오브젝트를 picking하는 문제와 그 오브젝트에 어떤 조작을 취할 때 동시성제어(concurrency)하는 문제가 생긴다. 본 논문에서는 오브젝트의 picking이 마우스 포인터에서의 ray와 오브젝트간에 intersection을 계산하는 방법 외에 scene graph의 노드에 picking 속성을 주는 방법, bounds를 설정하는 방법, picking test의 범위를 한정하는 방법을 사용하여 computation의 부담을 줄이고 효과적인 동시성제어가 이루어지도록 action에 따라 공유(shared)lock과 전용(exclusive)lock을 사용한다.

  • PDF

AR-Station : A Virtual Reality Collaborative System for the Urban Planning (AR-Station : 도시설계를 위한 가상현실 협업 시스템)

  • 임진묵;김병철;이현정;원광연
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.493-495
    • /
    • 2004
  • 본 논문은 도시계획과정에서 도시설계안을 행정가, 설계자, 지주, 인근거주자 등에게 제시하고 이들의 요구사항을 실시간으로 반영할 수 있는 도시설계를 위한 가상현실 협업시스템인 AR-Station을 소개한다. 본 시스템은 다양한 참여자들 간의 원활한 의사소통과 협업을 위하여 가상 도시 모델을 시각화하기 위한 Hybrid Scene Graph와 직관적인 인터랙션을 제공하기 위한 탠저블 인터페이스를 사용한다. 참여자들의 작업공간은 시스템과 참여자들 사에의 상호작용이 효율적으로 이루어지도록 반영공간과 인터랙션공간으로 구분하여 설계하고 구현하였다.

  • PDF

Layout Based Multimodal Contents Aughoring Tool for Digilog Book (디지로그 북을 위한 레이아웃 기반 다감각 콘텐츠 저작 도구)

  • Park, Jong-Hee;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.512-515
    • /
    • 2009
  • In this paper, we propose layout based multimodal contents authoring tool for Digilog Book. In authoring step, users create a virtual area using mouse or pen-type device and select property of the area repetitively. After finishing authoring step, system recognizes printed page number and generate page layout including areas and property information. Page layout is represented as a scene graph and stored as XML format. Digilog Book viewer loads stored page layout and analyze properties then augment virtual contents or execute functions based on area. Users can author visual and auditory contents easily by using hybrid interface. In AR environment, system provides area templates in order to help creating area. In addition, proposed authoring tool separates page recognition module from page tracking module. So, it is possible to author many pages using only single marker. As a result of experiment, we showed proposed authoring tool has reasonable performance time in AR environment. We expect that proposed authoring tool would be applicable to many fields such as education and publication.

  • PDF