• 제목/요약/키워드: Immersive audio

검색결과 33건 처리시간 0.018초

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.

다채널 스피커 환경에서 가상 음원을 생성하기 위한 레벨 패닝 알고리즘 (Amplitude Panning Algorithm for Virtual Sound Source Rendering in the Multichannel Loudspeaker System)

  • 전세운;박영철;이석필;윤대희
    • 한국음향학회지
    • /
    • 제30권4호
    • /
    • pp.197-206
    • /
    • 2011
  • 본 논문에서는 다채널 스피커를 사용하는 음향 시스템에서의 가상 음원 생성 알고리즘을 제안하고 있다. 영상 신호의 표준은 보다 높은 해상도와 더 넓은 시야각을 제공하는 HD급이나 그 이상의 UHD급 등의 규격이 점차 상용화되고 있다. 그에 따라 음향 신호 또한 더 넓어진 음향 공간에서의 효과적인 음원 생성에 대한 필요성이 증가하고 있다. 기존의 스테레오 스피커 시스템으로는 원하는 사운드 효과를 재생하는데 한계를 가질 수밖에 없기 때문에, 여러 개의 스피커를 사용한 다양한 배치의 다채널 스피커 시스템이 제안되고 있다. 그러나 다수의 스피커를 사용한 시스템에서 기존의 사운드 패닝 알고리즘과 같은 가상 음원 생성 기술을 그대로 적용할 경우, 불연속적인 방향성 문제나 음색 열하 등의 또다른 문제가 발생할 수 있다. 이를 해결하기 위하여 임의의 배치의 다채널 스피커 시스템에서 적용 가능한 벡터 기반의 가상 음원 생성 알고리즘을 제안하였다. 제안된 알고리즘은 벡터 기반의 게인 조절 함수를 이용하여 음원의 방향감을 쉽고 효과적으로 생성할 수 있으며, 대칭 혹은 비대칭의 다채널 스피커 배치에 대해서 모두 적용 가능하다. 기존에 잘 알려진 VBAP와 MDAP의 레벨 패닝 방법과 의 청취 비교 실험을 통하여 보다 정확한 패닝 성능을 유지할 수 있는 것으로 확인되었다.

상호텍스트성을 활용한 디지털 자화상 창작 (A Study on the Creation of Digital Self-portrait with Intertextuality)

  • 임수연
    • 문화기술의 융합
    • /
    • 제8권1호
    • /
    • pp.427-434
    • /
    • 2022
  • 본 연구의 목적은 관람자에게 자아 인식의 문제에 천착하게 하는 몰입의 경험을 제공하는 자화상을 창작하는 것이다. 우리는 관람자로부터 획득한 음성과 이미지 정보를 활용하여 인터랙티브 자화상을 구현하는 방안을 제시한다. 관람자의 음성 정보는 텍스트로 변환되어 시각화되는데, 텍스트 시각화를 위한 픽셀 정보로 관람자의 얼굴 이미지가 활용된다. 텍스트는 개인의 경험과 기억을 바탕으로 자신만의 감성, 상상, 의도 등이 다양하게 혼합되어 있는 결과물이다. 사람들은 각자 다른 방식으로 특정 텍스트에 대한 상이한 해석력을 발휘한다. 제안한 디지털 자화상은 텍스트가 가진 상호텍스트성을 활용하여 내적인 면에서 관람자의 자의식을 재현할 뿐 아니라 텍스트에 내재된 의미들을 확장한다. 넓은 의미에서의 상호텍스트성은 텍스트와 텍스트, 주체와 주체 사이에서 일어나는 모든 지식의 총체를 가리킨다. 따라서 텍스트로 표현된 자화상은 관객과 텍스트, 관객과 관객, 텍스트와 텍스트 사이에서 다양한 관계를 파생시키며 확장해간다. 또한 본 연구는 제안한 자화상이 외적인 면에서도 텍스트가 가진 조형성을 확인하고 시공간성을 재창조할 수 있다는 것을 보여준다. 이 동적 자화상은 실시간으로 관람자들의 관심사를 반영하고 갱신되며 창작되는 특성을 지닌다.