• 제목/요약/키워드: 공간음향 렌더링

검색결과 12건 처리시간 0.027초

공간음향 렌더링을 위한 공기흡음 처리에 관한 연구 (Study on Air Absorption Processing for Spatial Audio Rendering)

  • 장대영;이용주;유재현;강경옥;이태진
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.18-21
    • /
    • 2022
  • 본 논문에서는 6 자유도 공간음향 렌더링 기술 관련 음향객체의 거리감 인지에 중요한 공기흡음 감쇠 효과 처리에 있어, 현장의 음원과 음향 센서 사이의 거리인 녹음거리에 해당하는 공기흡음 감쇠가 기본적으로 포함되어 3kHz 이상의 고주파 성분이 감쇠된 음원이 렌더링에 사용되는 문제점을 해결하는 방법을 제시한다. 이 방법에 의하면 6 자유도 공간음향 콘텐츠에 메타데이터로서 녹음거리 파라메터를 포함시키고, 렌더링할 때 공기흡음을 적용하기 위한 음원과 청취자의 거리값에 녹음거리에 대한 보상을 적용함으로써, 음원의 공기흡음 감쇠 효과를 정확하게 수정 적용하여 음원의 음색을 모든 거리에서 실제에 가깝도록 제공할 수 있게 된다. 특히, 원거리 녹음이 불가피한 비행기, 천둥, 폭발음 등 원거리 녹음음원의 음색에 녹음거리에 의한 음원의 공기흡음 감쇠가 적지 않은 영향을 미치게 되는데, 녹음거리의 적용에 의한 제안한 방법에 의해 음원과 청취자의 거리값에 대한 음원의 음색이 고주파영역의 녹음거리에 의한 원치 않는 감쇠를 보상하는 효과를 확인할 수 있었다.

  • PDF

MPEG-I AEP 기반 실시간 6 자유도 공간음향 렌더링 시스템 (A Real Time 6 DoF Spatial Audio Rendering System based on MPEG-I AEP)

  • 강경옥;유재현;장대영;이용주;이태진
    • 방송공학회논문지
    • /
    • 제28권2호
    • /
    • pp.213-229
    • /
    • 2023
  • 본 논문에서는 가상환경에 위치한 청취자의 움직임에 대응하여 실시간으로 6DoF 공간음향을 제공하는 공간음향 렌더링 시스템에 대해 소개한다. 본 시스템은 MPEG-I Immersive Audio CfP 대응을 위하여 MPEG-I AEP를 개발환경으로 사용하여 구현되었으며 인코더와, 디코더를 포함하는 렌더러로 구성된다. 인코더는 인코더 입력 포맷(EIF) 파일에 포함된 가상공간 장면의 공간적 오디오 파라미터와, SOFA 파일로 제공되는 음원의 지향성 정보 등의 메타데이터를 오프라인으로 부호화하여 비트스트림으로 전달하는 역할을 하며, 렌더러는 전달된 비트스트림을 수신하여 청취자의 위치에 따라 실시간으로 6DoF 공간음향 렌더링을 수행한다. 개발된 렌더링 시스템에 적용한 주요 공간음향 처리 기술로는 음원 효과 및 장애물 효과 처리 기술이 있으며, 그 외 시스템 동작에 필요한 기술로는 도플러 효과 및 음장효과 처리 기술 등이 있다. 개발된 시스템에 대한 성능평가 결과로서 자체 주관평가 결과를 소개한다.

객체기반 실감음향 기술 개발 (A Study on Object-based Realistic Audio)

  • 장대영;이태진
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2015년도 하계학술대회
    • /
    • pp.429-432
    • /
    • 2015
  • 본 논문에서는 기존의 채널기반의 오디오 기술에 대해 다양한 서비스가 가능하고, 재생환경에 독립적인 객체기반 실감음향 기술에 대해 논하고자 한다. 현재, 극장 사운드를 중심으로 객체기반 오디오 기술이 적용된 사운드가 점차 확산되고 있으며, 미국, 유럽 등 차세대 방송용 오디오에 객체기반 오디오 기술의 도입을 적극적으로 고려하고 있다. 객체기반 오디오 기술은 콘텐츠의 제작단계에서 재생환경을 고려할 필요가 없고, 현장의 음향을 신호와 3 차원 공간 정보로 구분하여 음향 공간의 정보를 그대로 표현함으로써, 재생환경에서는 3 차원 공간 정보를 활용하여 다양한 3 차원 음향 재생 기술을 활용하여 재생할 수 있다. 이러한 객체기반 실감음향 기술 개발을 위해서는 편리한 제작 및 3 차원 공간 정보 표현 기술이 필요하며, 청취환경에서는 객체기반 실감음향 콘텐츠를 제작자의 의도대로 렌더링할 수 있는 재생 및 제어 기술이 필요하다. 이에 객체기반 실감음향 기술의 기술동향과 객체기반 실감음향 서비스를 위한 콘텐츠 표현/제작 및 재생 기술에 대하여 고찰해 보고자 한다.

  • PDF

고현장감 오디오 서비스를 위한 하이브리드 오디오 기술동향 (Hybrid Audio Technology Trends for Immersive Sound Service)

  • 장대영;이용주;유재현;이태진
    • 전자통신동향분석
    • /
    • 제31권3호
    • /
    • pp.81-90
    • /
    • 2016
  • 현재, 극장 사운드를 중심으로 객체기반 오디오 기술을 포함하는 하이브리드 포맷의 사운드 서비스가 점차 확산되고 있으며, 미국, 유럽, 한국 등에서는 차세대 방송용 오디오에 객체기반 오디오 기술의 도입을 적극적으로 고려하고 있다. 객체기반 오디오 기술은 콘텐츠의 제작단계에서 재생환경을 고려할 필요가 없고, 현장의 음향을 신호와 3차원 공간정보로 구분하여 음향공간의 정보를 그대로 표현함으로써, 재생단말에서 3차원 공간정보를 활용하여 재생할 수 있게 한다. 이러한 객체기반 실감음향 기술개발을 위해서는 편리한 제작 및 3차원 공간정보 표현 기술이 필요하며, 청취환경에서는 객체기반 실감음향 콘텐츠를 제작자의 의도대로 렌더링할 수 있는 재생 및 제어 기술이 필요하다. 이에 객체기반 실감음향 기술이 포함되는 하이브리드 오디오 기술의 현황에 대하여 살펴보고자 한다.

  • PDF

MPEG-I Immersive Audio 표준화 및 기술 동향 (Standardization of MPEG-I Immersive Audio and Related Technologies)

  • 장대영;강경옥;이용주;유재현;이태진
    • 전자통신동향분석
    • /
    • 제37권3호
    • /
    • pp.52-63
    • /
    • 2022
  • Immersive media, also known as spatial media, has become essential with the decrease in face-to-face activities in the COVID-19 pandemic era. Teleconference, metaverse, and digital twin have been developed with high expectations as immersive media services, and the demand for hyper-realistic media is increasing. Under these circumstances, MPEG-I Immersive Media is being standardized as a technologies of navigable virtual reality, which is expected to be launched in the first half of 2024, and the Audio Group is working to standardize the immersive audio technology. Following this trend, this article introduces the trend in MPEG-I immersive audio standardization. Further, it describes the features of the immersive audio rendering technology, focusing on the structure and function of the RM0 base technology, which was chosen after evaluating all the technologies proposed in the January 2022 "MPEG Audio Meeting."

VR 환경에 적합한 실시간 음장 재현 시스템에 관한 연구 (A Study on Real -Tine 3B Sound Rendering System for Virtual Reality Environment)

  • 채수복;방승범;황신;고희동;김순협
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 2000년도 학술발표대회 논문집 제19권 2호
    • /
    • pp.353-356
    • /
    • 2000
  • 본 논문은 VR시스템에서 실시간으로 3D Sound를 Rendering하기 위한 음장재현 시스템구현에 관한 것이다. 2개의 Speaker 또는 헤드폰을 사용하여 음장을 제어할 수 있다. 음장 제어는 레이 트레이싱(Ray Tracing)기법을 이용하여 음장을 시뮬레이션하고 가상 공간의 음장 파라미터를 추출하여 음원에 적용하면서 실시간으로 음장효과를 렌더링한다. 이 시스템은 펜티엄-II 333MHz, 128M RAM, Sound Blaster Sound Card를 사용한 시스템에서 구현하였다. 최종적으로 청취자는 2개의 스피커 또는 헤드폰을 이용하여 3D 음장을 경험하게 된 다.

  • PDF

멀티빔 자료를 이용한 웹기반의 3차원 해저 지형 가시화

  • 노대훈;박요섭;김학일
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2000년도 춘계 학술대회 논문집 통권 3호 Proceedings of the 2000 KSRS Spring Meeting
    • /
    • pp.166-171
    • /
    • 2000
  • 밀티빔 음향 측심기 (Multibeam Echo Sounder)는 탐사선에 수직방향으로 해저면을 주사(Swath)하여, 한번의 송수신(Ping)으로 다중의 빔자료를 얻을 수 있는 측심기로, 해저면에 반사되어 되돌아오는 음파의 음압을 기록하고, 사이드 스캔 소나 자료도 동시에 취득하는 기능을 가지고 있으므로, 측심된 해저 지형(Bathymetry)과 해저 지형을 덮고 있는 해저면의 퇴적 상황(Sediment Environment)도 동시에 얻을 수 있는 다목적 측심기이다. 본 논문에서는 L3사의 Sea Beam 2100 멀티빔 음향 측심기를 통해 얻은 자료를 처리하여, 3차원 공간 데이터인 DEM(Digital Elevation Model)을 생성하고, VRML을 이용한 웹상에서의 해저 지형 가시화를 통해, 세계 어느 곳에서나 웹을 통하여 쉽게 정보를 공유할 수 있는 3차원 해저 지리 정보 시스템의 구현을 목적으로 한다. 멀티빔 음향 측심기를 통해 얻어진 자료는 항해 자료 보정, 음속 보정, 빔 좌표 계산과 분리, 오측심 자료 제거, 조석 보정 등의 단계를 거쳐 측심자료의 정확도 및 신뢰도를 높이는 과정을 거치게 된다. 보정된 멀티빔 음향 측심자료는 무작위 점 사상(Point Topology)으로 산재 되어 있는 빔 자료를 임의의 단위영역으로 변환하는 과정을 거쳐야 하는데, 이 과정을 격자화라고 한다. 자료의 격자화를 통해 3차원 공강 데이터인 DEM 파일을 제작하고, 이 DEM 파일과 음압 영상을 이용해 웹상에서의 3차원 해저 지형의 가시화를 실현한다. 웹상에서의 3차원 지형 가시화에서 방대한 양의 지형 데이터는 데이터 전송 시간과 렌더링 시간에 치명적인 문제이다. 따라서, 렌더링 시간과 데이터 전송 시간을 단축시키기 위한, 지형 자료의 LOD(Level of Detail)를 통해, VRML을 이용한 보다 효과적인 웹상에서의 3차원 해저 지형의 가시화를 실현한다.면 기업은 고객으로 공간적인 제약으로 인한 불신을 불식시키는 신뢰감을 주게 된다. 이러한 고객서비스 향상과 물류비용 절감은 사이버 쇼핑몰이 전국 어디서나 우리의 안방에서 자연스럽게 점할 수 있는 상황을 만들 것이다.SP가 도입되어, 설계업무를 지원하기위한 기본적인 시스템 구조를 구상하게 된다. 이와 함께 IT Model을 구성하게 되는데, 객체지향적 접근 방법으로 Model을 생성하고 UML(Unified Modeling Language)을 Tool로 사용한다. 단계 4)는 Software Engineering 관점으로 접근한다. 이는 최종산물이라고 볼 수 있는 설계업무 지원 시스템을 Design하는 과정으로, 시스템에 사용될 데이터를 Design하는 과정과, 데이터를 기반으로 한 기능을 Design하는 과정으로 나눈다. 이를 통해 생성된 Model에 따라 최종적으로 Coding을 통하여 실제 시스템을 구축하게 된다.the making. program and policy decision making, The objectives of the study are to develop the methodology of modeling the socioeconomic evaluation, and build up the practical socioeconomic evaluation model of the HAN projects including scientific and technological effects. Since the HAN projects consists of 18 subprograms, it is difficult In evaluate all the subprograms simultaneously. Despite, each program is being performed under the category of HAN projects, so the common soci

  • PDF

VR환경에 알맞은 실시간 음장구현에 관한 연구 (A Study on Real-Time 3D Sound Rendering for Virtual Reality Environment)

  • 채수복;방승범;황신;고희동;김순협
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.197-200
    • /
    • 2000
  • 본 논문은 VR시스템에 사용되는 실시간 음향제시를 위한 시스템 구현에 관한 것이다. 2개의 Speaker 또는 헤드폰을 사용하여 음상제어, 음장제어의 두 부분으로 구성되어 있다. 음상제어 부분은 각각의 음원의 위치를 정위하고, 음장제어 부분은 레이 트레이싱(Ray Tracing)기법을 이용하여 음장을 시뮬레이션하고 가상 공간의 음장 파라미터를 추출하여 음원에 적용하면서 실시간으로 음장효과를 렌더링 한다. 이 시스템은 펜티엄-Ⅱ333MHz 시스템에서 구현하였다. 최종적으로 청취자는 2개의 스피커 또는 헤드폰을 이용하여 3D음장을 경험하게 된다.

  • PDF

선행 효과를 이용한 음장 합성 기법의 음상정위 보정 (A Compensation for Localization Error in WFS using Precedence Effect)

  • 최근우;박태진;서정일;강경옥
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 추계학술대회
    • /
    • pp.57-59
    • /
    • 2012
  • 음장 합성 기법은 라우드스피커 어레이를 사용하여 보다 넓은 청취 공간을 제공하는 음향 재생 기법이다. 이를 이용한 렌더링 성능을 좌우하는 요소 중 하나로 스피커의 간격이 있다. 스피커의 간격은 앨리어싱 주파수와 직접적인 관계가 있으며 간격이 좁을수록 높은 성능을 보인다. 그런데 좁은 간격의 어레이를 사용하는 경우 라우드스피커의 저역 한계 주파수가 높아지게 마련이며 따라서 필수적으로 저주파 대역을 위한 서브 우퍼를 사용해야 한다. 이런 경우에 서브 우퍼에 의한 음상정위 오류가 있을 수 있다. 본 논문에서는 선행 효과를 이용하여 이 문제에 대한 해결방안을 제시한다.

  • PDF

The Spatial Equalizer$^{(R)}$

  • 김양한;최정우
    • 방송과미디어
    • /
    • 제16권4호
    • /
    • pp.31-45
    • /
    • 2011
  • 사용자가 원하는 3D 사운드 혹은 소리의 공간감을 원하는 대로 재현할 수 있는 오디오 시스템은 오랜 기간 동안 인류가 가지고 싶었던 꿈의 기계였다. 그러나 과연 개인 혹은 사용자가 원하는 3D 사운드라는 것이 무엇이며 어떻게 정의하여야 하는지는 명확하지 않다. 이것은 매우 주관적인 개념일 뿐만 아니라 개인에 따라 다를 수 있으며, 그 평가에 대한 객관적인 방법 또한 존재하지 않는다. 관련된 연구를 살펴보면, 원하는 소리의 파동 전파 자체를 시공간 상에서 물리적으로 재현하는 WFS(Wave Field Synthesis)나 Ambisonics, 또는 머리전달함수(HRTF: Head Related Transfer Function)를 기반으로 한 많은 연구들이 있다. 이렇게 재현된 음장(sound field)을 보면 이들이 인지되고 평가되는 등의 객관화를 위하여는 청취 환경에 따라 그 특성이 바뀌고 동일한 환경에서도 청취자에 따라 다르게 인지되는 근본적인 문제점을 가지고 있다. 음장 재현 방법의 이러한 근본적인 문제는 놀랍게도 과거의 스테레오 시스템에서 볼 수 있는 밸런스 노브(balance knob)로부터 그 해결의 실마리를 찾을 수 있다. 밸런스 노브는 보편적인 최적의 소리를 찾는 대신에 청취자가 원하는 음향 효과를 얻을 때까지 직접적으로 소리를 청취하고, 스스로 조절하여 평가할 수 있는 매개체의 역할을 수행한다. 만일 밸런스 노브와 같이 청취자가 원하는 3D 사운드를 스스로 평가하고 조절하기 위한 방법을 마련할 수 있다면? 즉, 청취자가 시공간적으로 원하는 3D 사운드를 실시간으로 청취하고 변화시킬 수 있는 인터페이스를 구현할 수 있다면? 과연 그러한 것이 어떻게 가능할 수 있는지 체계적인 검토가 이루어질 수 있다면 매우 좋을 것이다. 본 고는 이러한 것을 가능케 할 수 있는 즉, 청취자가 자유 자재로 원하는 음장을 형성할 수 있는 렌더링 기법 및 즉각적인 피드백이 가능한 인터페이스를 소개하고 있다. 인터페이스는 현재까지 오디오 시스템에서 주로 사용되는 주파수 이퀄라이져(frequency equalizer)와 매우 유사한 특징이 있다. 이러한 점을 감안하여 "Spatial Equalizer$^{(R)}$"라는 이름을 붙여 보았다. Spatial Equalizer$^{(R)}$는 공간 상에 하나의 점 또는 다수의 점으로 표시되는 가상 음원을 사용자가 조종하여 원 소리의 공간감을 제어할 수 있도록 구성되어 있다. 공간 상에 다수의 점 음원들의 위치를 변화시키거나 크기를 변화시킴으로써 청취자가 원하는 공간감을 구현할 수 있도록 하고 있다. 중요한 것은 종전의 이퀄라이져와 같이 Spatial Equalizer$^{(R)}$에 의해 형성되는 음장이 어떤 객관적인 척도에 의해서 평가되는 대신 사용자에 의해 직접 주관적으로 평가되고, 선택된다는 점이다.