• 제목/요약/키워드: Visual Scene

검색결과 369건 처리시간 0.028초

압축 도메인 상에서 메크로 블록 타입과 DC 계수를 사용한 급격한 장면 변화 검출 알고리즘 (Abrupt Scene Change Detection Algorithm Using Macroblock Type and DC Coefficient in Compressed Domain)

  • 이흥렬;이웅희;이웅호;정동석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅲ
    • /
    • pp.1527-1530
    • /
    • 2003
  • Video is an important and challenge media and requires sophisticated indexing schemes for efficient retrieval from visual databases. Scene change detection is the first step for automatic indexing of video data. Recently, several scene change detection algorithms in the pixel and compressed domains have been reported in the literature. However, using pixel methods are computationally complex and are not very robust in detecting scene change detection. In this paper, we propose robust abrupt scene change detection using macroblock type and DC coefficient. Experimental results show that the proposed algorithm is robust for detection of most abrupt scene changes in the compressed domain.

  • PDF

지역적, 전역적 특징을 이용한 환경 인식 (Scene Recognition Using Local and Global Features)

  • 강산들;황중원;정희철;한동윤;심성대;김준모
    • 한국군사과학기술학회지
    • /
    • 제15권3호
    • /
    • pp.298-305
    • /
    • 2012
  • In this paper, we propose an integrated algorithm for scene recognition, which has been a challenging computer vision problem, with application to mobile robot localization. The proposed scene recognition method utilizes SIFT and visual words as local-level features and GIST as a global-level feature. As local-level and global-level features complement each other, it results in improved performance for scene recognition. This improved algorithm is of low computational complexity and robust to image distortions.

실내 환경 이미지 매칭을 위한 GMM-KL프레임워크 (GMM-KL Framework for Indoor Scene Matching)

  • Kim, Jun-Young;Ko, Han-Seok
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.61-63
    • /
    • 2005
  • Retreiving indoor scene reference image from database using visual information is important issue in Robot Navigation. Scene matching problem in navigation robot is not easy because input image that is taken in navigation process is affinly distorted. We represent probabilistic framework for the feature matching between features in input image and features in database reference images to guarantee robust scene matching efficiency. By reconstructing probabilistic scene matching framework we get a higher precision than the existing feaure-feature matching scheme. To construct probabilistic framework we represent each image as Gaussian Mixture Model using Expectation Maximization algorithm using SIFT(Scale Invariant Feature Transform).

  • PDF

Salient Region Extraction based on Global Contrast Enhancement and Saliency Cut for Image Information Recognition of the Visually Impaired

  • Yoon, Hongchan;Kim, Baek-Hyun;Mukhriddin, Mukhiddinov;Cho, Jinsoo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권5호
    • /
    • pp.2287-2312
    • /
    • 2018
  • Extracting key visual information from images containing natural scene is a challenging task and an important step for the visually impaired to recognize information based on tactile graphics. In this study, a novel method is proposed for extracting salient regions based on global contrast enhancement and saliency cuts in order to improve the process of recognizing images for the visually impaired. To accomplish this, an image enhancement technique is applied to natural scene images, and a saliency map is acquired to measure the color contrast of homogeneous regions against other areas of the image. The saliency maps also help automatic salient region extraction, referred to as saliency cuts, and assist in obtaining a binary mask of high quality. Finally, outer boundaries and inner edges are detected in images with natural scene to identify edges that are visually significant. Experimental results indicate that the method we propose in this paper extracts salient objects effectively and achieves remarkable performance compared to conventional methods. Our method offers benefits in extracting salient objects and generating simple but important edges from images containing natural scene and for providing information to the visually impaired.

대화형 T-DMB 컨텐츠의 효율적인 전송을 위한 장면기술정보 최적화 기법 (An Optimization Technique of Scene Description for Effective Transmission of Interactive T-DMB Contents)

  • 이송록;정원식;유영재;차경애
    • 방송공학회논문지
    • /
    • 제11권3호
    • /
    • pp.363-378
    • /
    • 2006
  • 디지털멀티미디어방송(Digital Multimedia Broadcasting, DMB)은 고품질의 방송 영상 및 부가 데이터를 이동 중인 차량 내에서나 모바일폰, PDA 등과 같은 휴대형 단말에서 수신할 수 있는 이동 멀티미디어 방송 서비스이다. 미디어 및 상호작용 정보의 인코딩 규격으로는 MPEG-4 표준을 사용하며, 대화형 컨텐츠의 사용자 상호작용 등의 정보는 장면기술정보인 MPEG-4 BIFS(Binary Format for Scene)에 의해서 이루어진다. 사용자와의 상호작용이 풍부하고 장면 구성이 복잡한 컨텐츠일수록 BIFS 데이터가 전송되기 위해서 요구되는 비트율도 증가한다. 그러나 이동 단말에 고품질의 비디오 및 오디오 데이터를 전송하는 DMB 환경에서는 BIFS 스트림의 전송율은 매우 제한적이다. 한편 사용자 단말기에서 DMB 컨텐츠를 재생하려면 비디오, 오디오 등 미디어 객체들을 디코딩하기 전에 장면 구성 정보인 BIFS 스트림을 디코딩 및 파싱하여야 한다. 그러므로 MPEG-4의 높은 미디어 압축율에도 불구하고 제한된 대역폭과 장면 구성 정보 등 부가 데이터 전송 및 디코딩으로 인한 지연이 발생될 수 있다. 따라서 방송 컨텐츠의 특성 상 사용자의 임의 접근 시에도 재생될 컨텐츠의 BIFS 데이터를 파싱하여 대기 시간을 최소화하도록 초기 장면 구성 정보를 효율적으로 전송해야 한다. 본 연구에서는 지상파 DMB 대화형 컨텐츠의 장면기술정보인 BIFS 스트림을 저전송율 환경에 적응된 형태로 전달하기 위해서, 장면기술정보를 최적화하는 기법을 제안한다.

신장의 개인차로 인한 서로 다른 눈높이에서 경험된 시각장면의 감각적 특성 (Sensory Properties of Visual Scenes Experienced from Different Eye-Heights Arising from Individual Differences in Body-Heights)

  • 김대규;현주석
    • 한국융합학회논문지
    • /
    • 제9권11호
    • /
    • pp.217-225
    • /
    • 2018
  • 개인의 신장 차이로 인한 눈높이 차이는 동일 시각장면에 대한 상이한 감각적 경험을 초래해, 장기적으로는 심리사회적, 발달적 개인차로 이어질 가능성이 있다. 이러한 가능성을 토대로 본 연구는, 동일 피사체를 대상으로 서로 다른 두 높이의 카메라 즉 상이한 눈높이에서 촬영된 두 정지 영상의 감각적 특성을 서로 비교하였다. 분석 대상이 된 두 영상은 보행자의 신체 부위 서로 다른 높이에 부착된 두 액션 카메라를 통해 병렬 촬영된 정지화면 사진이었다. 두 카메라 높이조건에서 추출된 사진들을 분석한 결과, 전반적 현출성과 시각적 복잡성 수준 모두가 높이가 낮은 조건보다 높은 조건의 사진들에서 상대적으로 높았다. 이 결과는 서로 다른 눈높이에서 경험된 시각장면에 감각적 특성 차이가 있을 가능성과 함께, 신장이 큰 개인의 경우 작은 개인에 비해 상대적으로 풍부하고 다양한 시각 단서들을 경험할 가능성을 시사한다.

지상파 DMB 컨텐츠의 MPEG-4 BIFS 최적화 기법 (MPEG-4 BIFS Optimization for Interactive T-DMB Content)

  • 차경애
    • 한국산업정보학회논문지
    • /
    • 제12권1호
    • /
    • pp.54-60
    • /
    • 2007
  • The Digital Multimedia Broadcasting(DMB) system is developed to offer high quality multimedia content to the mobile environment. The system adopts the MPEG-4 standard for the main video, audio and other media format. For providing interactive contents, it also adopts the MPEG-4 scene description that refers to the spatio-temporal specifications and behaviors of individual objects. With more interactive contents, the scene description also needs higher bitrate. However, the bandwidth for allocating meta data, such as scene description is restrictive in the mobile environment. On one hand, the DMB terminal renders each media stream according to the scene description. Thus the binary format for scene(BIFS) stream corresponding to the scene description should be decoded and parsed in advance when presenting media data. With this reasoning, the transmission delay of the BIFS stream would cause the delay in transmitting whole audio-visual scene presentations, although the audio or video streams are encoded in very low bitrate. This paper presents the effective optimization technique in adapting the BIFS stream into the expected bitrate without any waste in bandwidth and avoiding transmission delays inthe initial scene description for interactive DMB content.

  • PDF

지능 영상 감시를 위한 흑백 영상 데이터에서의 효과적인 이동 투영 음영 제거 (An Effective Moving Cast Shadow Removal in Gray Level Video for Intelligent Visual Surveillance)

  • 응웬탄빈;정선태;조성원
    • 한국멀티미디어학회논문지
    • /
    • 제17권4호
    • /
    • pp.420-432
    • /
    • 2014
  • In detection of moving objects from video sequences, an essential process for intelligent visual surveillance, the cast shadows accompanying moving objects are different from background so that they may be easily extracted as foreground object blobs, which causes errors in localization, segmentation, tracking and classification of objects. Most of the previous research results about moving cast shadow detection and removal usually utilize color information about objects and scenes. In this paper, we proposes a novel cast shadow removal method of moving objects in gray level video data for visual surveillance application. The proposed method utilizes observations about edge patterns in the shadow region in the current frame and the corresponding region in the background scene, and applies Laplacian edge detector to the blob regions in the current frame and the corresponding regions in the background scene. Then, the product of the outcomes of application determines moving object blob pixels from the blob pixels in the foreground mask. The minimal rectangle regions containing all blob pixles classified as moving object pixels are extracted. The proposed method is simple but turns out practically very effective for Adative Gaussian Mixture Model-based object detection of intelligent visual surveillance applications, which is verified through experiments.

영화 비주얼 이펙트 제작의 커뮤니케이션을 위한 자료검색 시스템 제안 - 컴퓨터 그래픽 기술을 이용한 이펙트를 중심으로 - (A Visual Effect Retrieval System Design for Communication in Film-production - Focused on the Effect Using Computer Graphics Technology -)

  • 조국정;석혜정
    • 한국콘텐츠학회논문지
    • /
    • 제9권6호
    • /
    • pp.92-103
    • /
    • 2009
  • 컴퓨터 그래픽스 기술의 발달로 영화 초기에 사용되던 특수효과의 대부분은 컴퓨터 그래픽스 기술을 사용한 비주얼 이펙트 기술로 대체 되었다. 이러한 변화에 따라 현대 영화의 이펙트 장면은 감독과 비주얼 이펙트 제작자의 상호 소통에 의해 합의가 이루어진 후 제작된다. 하지만 감독과 비주얼 이펙트 제작자는, 스토리를 전달하기 위한 내러티브 언어와 컴퓨터 그래픽스의 기술 언어라는 각자의 언어를 사용한 커뮤니케이션으로 인해 제작과정의 많은 시행착오를 겪게 된다. 이 연구에서는 감독과 비주얼 이펙트 제작자의 원활한 커뮤니케이션을 돕기 위한 자료검색 시스템을 제안 하고자 한다. 제안된 시스템은 내러티브와 비주얼 이펙트 사용의 적절함을 인정받은 영화 14편에서 비주얼 이펙트가 사용된 장면을 찾아 내러티브와 비주얼 이펙트를 유형별로 분석하고, 사용된 컴퓨터 그래픽스 기술을 데이터베이스화하여 그 장면을 검색 할 수 있도록 만든 어플리케이션이다. 감독과 비주얼 이펙트 제작자는 이 어플리케이션을 통해 원하는 비주얼 이펙트 장면을 찾아 빠르게 장면에 대한 합의에 도달하여 합리적인 제작 파이프라인을 구축할 수 있도록 도울 것이다.

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.