• 제목/요약/키워드: 3D Auditory System

검색결과 37건 처리시간 0.023초

Listener Auditory Perception Enhancement using Virtual Sound Source Design for 3D Auditory System

  • Kang, Cheol Yong;Mariappan, Vinayagam;Cho, Juphil;Lee, Seon Hee
    • International journal of advanced smart convergence
    • /
    • 제5권4호
    • /
    • pp.15-20
    • /
    • 2016
  • When a virtual sound source for 3D auditory system is reproduced by a linear loudspeaker array, listeners can perceive not only the direction of the source, but also its distance. Control over perceived distance has often been implemented via the adjustment of various acoustic parameters, such as loudness, spectrum change, and the direct-to-reverberant energy ratio; however, there is a neglected yet powerful cue to the distance of a nearby virtual sound source that can be manipulated for sources that are positioned away from the listener's median plane. This paper address the problem of generating binaural signals for moving sources in closed or in open environments. The proposed perceptual enhancement algorithm composed of three main parts is developed: propagation, reverberation and the effect of the head, torso and pinna. For propagation the effect of attenuation due to distance and molecular air-absorption is considered. Related to the interaction of sounds with the environment, especially in closed environments is reverberation. The effects of the head, torso and pinna on signals that arrive at the listener are also objectives of the consideration. The set of HRTF that have been used to simulate the virtual sound source environment for 3D auditory system. Special attention has been given to the modelling and interpolation of HRTFs for the generation of new transfer functions and definition of trajectories, definition of closed environment, etc. also be considered for their inclusion in the program to achieve realistic binaural renderings. The evaluation is implemented in MATLAB.

청취자가 이동이 가능한 청각 디스플레이 시스템 개발 (A development of the virtual auditory display system that allows listeners to move in a 3D space)

  • 강대기;이채봉
    • 융합신호처리학회논문지
    • /
    • 제13권1호
    • /
    • pp.1-5
    • /
    • 2012
  • 본 연구에서는 청취자가 3차원 공간에서 자유로이 움직일 수 있는 음장 재생 시스템을 개발하였다. 시스템은 방음실($4.7m(W){\times}2.8m(D){\times}3.0m(H)$)에 설치하였으며 개인용 컴퓨터, 음의 제시장치 그리고 3차원 초음파 센서로 구성하였다. 본 시스템에서는 실내 전체를 감지하는 3차원 초음파 센서로부터 청취자의 위치 정보 및 자세각 정보를 얻어, 컴퓨터에서 나오는 음신호에 머리전달함수(HRTFs)를 삽입하여 음의 제시 장치로부터 출력하도록 설정하였다. 실험에 사용한 머리전달함수는 청취자의 머리 정변에서 1.5m 떨어진 지점에서 각각 측정하였다. 그리고 시스템의 성능을 평가하기 위해 가상 음원의 위치를 랜덤으로 변화시키고, 청취자에게는 자유로운 이동을 허락한 상태에서 음원의 위치를 찾는 실험을 수행하였다. 그 결과, 3차원 공간에 있어서 제시된 음원의 위치에서 청취자가 추정한 위치까지의 거리 오차는 약 30cm 이내로 나타났다.

신체 움직임-시·청각 정보 상호변환 시스템의 구현 (Implementation of Mutual Conversion System between Body Movement and Visual·Auditory Information)

  • 배명진;김성일
    • 전기전자학회논문지
    • /
    • 제22권2호
    • /
    • pp.362-368
    • /
    • 2018
  • 본 논문은 학습으로 공감각 현상을 지각할 수 있는 의도적인 공감각을 기반으로 신체의 움직임에서 시각과 청각정보로의 변환 및 역변환 시스템을 구현하였다. 신체의 움직임은 웨어러블 암밴드인 Myo의 출력인 오일러 각을 사용하였고, 근감각 정보로서 롤(Roll), 피치(Pitch), 요(Yaw) 신호를 사용하였다. 또한, 시각과 청각 정보로서 미디(MIDI, Musical Instrument Digital Interface)신호와 HSI 컬러 모델을 사용하였다. 근감각 신호와 시 청각 신호 사이의 상호변환 방법은 일대일 대응 관계를 적용함으로써 직관적으로 쉽게 유추할 수 있도록 하였다. 시뮬레이션 결과에서 신체의 움직임 정보와 시 청각 정보의 상호변환이 가능함을 ROS(Root Operation System)와 3D 시뮬레이션 툴인 Gazebo를 사용하여 입력과 출력을 비교하였고 변환 오차가 작음을 확인하였다.

청각시스템을 기반으로 한 새로운 오디오 워터마킹 시스템 설계 (Design of a New Audio Watermarking System Based on Human Auditory System)

  • 신동환;신승원;김종원;최종욱;김덕영;김성환
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제51권7호
    • /
    • pp.308-316
    • /
    • 2002
  • In this paper, we propose a robust digital copyright-protection technique based on the concept of human auditory system. First, we propose a watermarking technique that accepts the various attacks such as, time scaling, pitch shift, add noise and a lot of lossy compression such as MP3, AAC WMA. Second, we implement audio PD(portable device) for copyright protection using proposed method. The proposed watermarking technique is developed using digital filtering technique. Being designed according to critical band of HAS(human auditory system), the digital filers embed watermark without nearly affecting audio quality. Before processing of digital filtering, wavelet transform decomposes the input audio signal into several signals that are composed of specific frequencies. Then, we embed watermark in the decomposed signal (0kHz~11kHz) by designed band-stop digital filer. Watermarking detection algorithm is implemented on audio PD(portable device). Proposed watermarking technology embeds 2bits information per 15 seconds. If PD detects watermark '11', which means illegal song. PD displays "Illegal Song" message on LCD, skips the song and plays the next song, The implemented detection algorithm in PD requires 19 MHz computational power, 7.9kBytes ROM and 10kBytes RAM. The suggested technique satisfies SDMI(secure digital music initiative) requirements of platform3 based on ARM9E core.

가상환경에서의 위치정보 제시를 위한 청각적 공간배열 (Auditory Spatial Arrangement of Object's Position in Virtual and Augmented Environment)

  • 이주환
    • 한국항행학회논문지
    • /
    • 제15권2호
    • /
    • pp.326-333
    • /
    • 2011
  • 본 연구는 공간적 정보의 청각적 제시 가능성을 확인하기 위해 머리전달함수(head-related transfer function: HRTF)를 통해 생성된 3D사운드를 가상공간상 대상 위치의 직각형태(orthogonal pattern), 혹은 대각형태(diagonal pattern)의 조합으로 배열하여 투시장치(See-Through HMD)로 증강현실을 경험하고 있는 사용자 과제수행의 정확성과 반응시간을 측정하였다. 본 연구에서 실시한 실험들의 결과를 종합하면, 3D 사운드로 대상의 위치 정보를 제시할 때는 사용자로부터의 방향은 직각으로 위치시키는 정보 배열이 정확성을 확보할 수 있고, 또한 가상적 깊이를 이용하여 정보를 배열하는 것도 그 깊이를 구분할 수 있으나 정확성이 떨어짐을 확인하였다. 특히 보다 현실적인 과제 상황에서의 수행을 비교하기 위해 설계된 이중과제(dual task)를 하는 동안 제시된 청각자극 조건에서도 이러한 정확성과 반응시간의 차이가 마찬가지로 나타났다. 이런 결과를 통해 3D사운드로 대상의 위치와 같은 공간적 정보를 제시 가능한 최적의 배열 형태를 제안하는데, 이는 어떤 패턴으로 정보를 구조화하여 제시하느냐에 따라 청각적 위치 정보 제시의 성공 여부가 결정된다는 것을 의미한다.

청각 주변 자극의 효과를 고려한 효율적 차량-운전자 상호 연동 모델 구현 방법론 (Implementation of the Perception Process in Human‐Vehicle Interactive Models(HVIMs) Considering the Effects of Auditory Peripheral Cues)

  • 나종관;박민용
    • 대한인간공학회지
    • /
    • 제25권3호
    • /
    • pp.67-75
    • /
    • 2006
  • HVIMs consists of simulated driver models implemented with series of mathematical functions and computerized vehicle dynamic models. To effectively model the perception process, as a part of driver models, psychophysical nonlinearity should be considered not only for the single-modal stimulus but for the stimulus of multiple modalities and interactions among them. A series of human factors experiments were conducted using the primary sensory of visual and auditory modalities to find out the effects of auditory cues in visual velocity estimation tasks. The variations of auditory cues were found to enhance/reduce the perceived intensity of velocity as the level changed. These results indicate that the conventional psychophysical power functions could not applied for the perception process of the HVIMs with multi-modal stimuli. 'Ruled surfaces' in a 3-D coordinate system(with the intensities of both kinds of stimuli and the ratio of enhancement, respectively for each coordinate) were suggested to model the realistic perception process of multi-modal HVIMs.

CASA 기반 음성분리 성능 향상을 위한 형태 분석 기술의 응용 (Application of Shape Analysis Techniques for Improved CASA-Based Speech Separation)

  • 이윤경;권오욱
    • 대한음성학회지:말소리
    • /
    • 제65호
    • /
    • pp.153-168
    • /
    • 2008
  • We propose a new method to apply shape analysis techniques to a computational auditory scene analysis (CASA)-based speech separation system. The conventional CASA-based speech separation system extracts speech signals from a mixture of speech and noise signals. In the proposed method, we complement the missing speech signals by applying the shape analysis techniques such as labelling and distance function. In the speech separation experiment, the proposed method improves signal-to-noise ratio by 6.6 dB. When the proposed method is used as a front-end of speech recognizers, it improves recognition accuracy by 22% for the speech-shaped stationary noise condition and 7.2% for the two-talker noise condition at the target-to-masker ratio than or equal to -3 dB.

  • PDF

자기공명영상(MRI) 검사 시 방사선사의 소음노출 (Noise Exposure of Radiographer Caused by Magnetic Resonance Imaging(MRI))

  • 길종원
    • 한국콘텐츠학회논문지
    • /
    • 제16권11호
    • /
    • pp.699-706
    • /
    • 2016
  • 본 연구는 MRI 검사로 인하여 방사선사가 노출되는 소음의 양을 평가하여 소음저감 시설의 필요성과 제도 마련을 제안하고자 하였다. 소음측정은 대전광역시 S 종합병원의 1.5 Tesla MRI 장비(7개 검사)와 3.0 Tesla MRI 장비(16개 검사)를 대상으로 하였고, 소음측정기는 SC-804를 사용하였다. 소음측정 거리는 MRI 검사실 방음문에서 검사자의 업무 위치까지 100cm 이며, 측정 높이는 업무 시 검사자의 귀 높이 100cm 이다. 검사별 소음측정은 각 검사의 시퀀스(Sequence)마다 발생되는 소음 수치를 관측하여 20초마다 기록하였고 검사별 3회씩 측정하여 평균값을 제시하였다. 연구결과 방사선사가 노출되는 소음의 최댓값은 73.3 dB(A)로 3.0 Tesla 장비에서 시행한 MRCP 검사, 검사별 평균소음의 최댓값은 66.9(3.1) dB(A)로 역시 3.0 Tesla 장비에서 시행한 Myelogram 검사이다. 장비별 평균소음은 3.0 Tesla 장비가 61.9(4.1) dB(A), 1.5 Tesla 장비가 52.0(3.1) dB(A)로 3.0 Tesla MRI 장비가 약 10 dB(A) 정도 높았다(p<0.001). 방사선사가 노출되는 소음의 양은 청력에 영향을 미치는 수준은 아니지만 비청력적영향이 발생할 수 있는 수준이다. 소음을 저감하기 위해 MRI 조정실 후면에 커튼을 설치하여 반사음을 제거할 수 있지만, 제도 마련이 선행되어야 할 것이다.

Effect of Speech Degradation and Listening Effort in Reverberating and Noisy Environments Given N400 Responses

  • Kyong, Jeong-Sug;Kwak, Chanbeom;Han, Woojae;Suh, Myung-Whan;Kim, Jinsook
    • 대한청각학회지
    • /
    • 제24권3호
    • /
    • pp.119-126
    • /
    • 2020
  • Background and Objectives: In distracting listening conditions, individuals need to pay extra attention to selectively listen to the target sounds. To investigate the amount of listening effort required in reverberating and noisy backgrounds, a semantic mismatch was examined. Subjects and Methods: Electroencephalography was performed in 18 voluntary healthy participants using a 64-channel system to obtain N400 latencies. They were asked to listen to sounds and see letters in 2 reverberated×2 noisy paradigms (i.e., Q-0 ms, Q-2000 ms, 3 dB-0 ms, and 3 dB-2000 ms). With auditory-visual pairings, the participants were required to answer whether the auditory primes and letter targets did or did not match. Results: Q-0 ms revealed the shortest N400 latency, whereas the latency was significantly increased at 3 dB-2000 ms. Further, Q-2000 ms showed approximately a 47 ms delayed latency compared to 3 dB-0 ms. Interestingly, the presence of reverberation significantly increased N400 latencies. Under the distracting conditions, both noise and reverberation involved stronger frontal activation. Conclusions: The current distracting listening conditions could interrupt the semantic mismatch processing in the brain. The presence of reverberation, specifically a 2000 ms delay, necessitates additional mental effort, as evidenced in the delayed N400 latency and the involvement of the frontal sources in this study.

Effect of Speech Degradation and Listening Effort in Reverberating and Noisy Environments Given N400 Responses

  • Kyong, Jeong-Sug;Kwak, Chanbeom;Han, Woojae;Suh, Myung-Whan;Kim, Jinsook
    • Journal of Audiology & Otology
    • /
    • 제24권3호
    • /
    • pp.119-126
    • /
    • 2020
  • Background and Objectives: In distracting listening conditions, individuals need to pay extra attention to selectively listen to the target sounds. To investigate the amount of listening effort required in reverberating and noisy backgrounds, a semantic mismatch was examined. Subjects and Methods: Electroencephalography was performed in 18 voluntary healthy participants using a 64-channel system to obtain N400 latencies. They were asked to listen to sounds and see letters in 2 reverberated×2 noisy paradigms (i.e., Q-0 ms, Q-2000 ms, 3 dB-0 ms, and 3 dB-2000 ms). With auditory-visual pairings, the participants were required to answer whether the auditory primes and letter targets did or did not match. Results: Q-0 ms revealed the shortest N400 latency, whereas the latency was significantly increased at 3 dB-2000 ms. Further, Q-2000 ms showed approximately a 47 ms delayed latency compared to 3 dB-0 ms. Interestingly, the presence of reverberation significantly increased N400 latencies. Under the distracting conditions, both noise and reverberation involved stronger frontal activation. Conclusions: The current distracting listening conditions could interrupt the semantic mismatch processing in the brain. The presence of reverberation, specifically a 2000 ms delay, necessitates additional mental effort, as evidenced in the delayed N400 latency and the involvement of the frontal sources in this study.