• Title/Summary/Keyword: 사운드시뮬레이션

Search Result 23, Processing Time 0.023 seconds

Efficient Foam Sound Generation with Screened Clustering Based Sound Synthesis (스크린드 군집화 기반의 사운드 합성을 이용한 효율적인 거품 사운드 생성)

  • Shin, YoungChan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.553-556
    • /
    • 2022
  • 본 논문에서는 거품 입자를 활용하여 시뮬레이션 장면에 맞는 소리를 효율적으로 합성할 수 있는 기법을 제안한다. 물리 기반 시뮬레이션 환경에서 소리를 표현하는 대표적인 방법은 생성과 합성이다. 사운드 생성의 경우 시뮬레이션 장면마다 물리 기반 접근법을 사용하여 소리를 생성할 수 있는데 계산 시간과 재질 표현의 어려움으로 다양한 시뮬레이션 장면에 대한 소리를 만들어 내기에는 쉽지 않다. 사운드 합성의 경우 소리 데이터를 미리 구축해야 하는 사전 준비가 필요하지만, 한 번 구축하면 비슷한 장면에서는 같은 소리 데이터를 활용할 수 있는 점이 있다. 따라서 본 논문에서는 거품 시뮬레이션의 소리 합성을 위해 소리 데이터를 구축하고 거품 입자의 효율적인 군집화를 통해 계산 시간을 줄이면서 소리의 사실감은 개선할 수 있는 사운드 합성 기법을 제안한다.

  • PDF

Novel Sound Energy and Reversal Mapping for Procedural Sound Synthesis in Cloth Simulation (옷감 시뮬레이션의 절차적 사운드 합성을 위한 새로운 사운드의 에너지와 반전 매핑)

  • Kim, Dong-Hui;Moon, Seong-Hyeok;Shin, Young-Chan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.587-590
    • /
    • 2022
  • 본 논문에서는 물리기반 옷감 시뮬레이션에 적합한 소리를 효율적으로 생성하기 위한 데이터 기반 합성 기법을 제안한다. 시뮬레이션에서 소리를 표현하는 방법은 크게 생성과 합성이 있지만, 합성은 실시간 애플리케이션에서 활용이 가능하기 때문에 인터랙티브한 환경에서 자주 활용되고 있다. 하지만, 데이터에 의존하기 때문에 원하는 장면에 부합하는 사운드를 합성하기는 어려우며, 기존 방법은 한 방향으로만 사운드 데이터를 검색하기 때문에 불연속으로 인한 끊김 현상이 발생한다. 본 논문에서는 양방향 사운드 합성 기법을 제시하며, 이를 통해 불연속적으로 합성되는 사운드 결과를 효율적으로 개선될 수 있음을 보여준다.

  • PDF

Particle-Based Sound Matching and Synthesis for Efficient and Realistic Foam Sound Generation (효율적이고 사실적인 거품 사운드 생성을 위한 입자 기반 사운드 매칭과 합성)

  • YoungChan Shin;Jong-Hyun Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.357-360
    • /
    • 2023
  • 본 논문에서는 거품 입자의 물리적 속성을 활용하여 가상 시뮬레이션 장면에 맞는 거품 사운드를 합성하고 사운드의 물리적 현상을 기반으로 사운드의 크기를 효율적으로 제어할 수 있는 기법을 제안한다. 현실에서는 사운드의 근원지와 청중의 위치 관계에 따라 사운드 크기의 차이가 나타타는 것을 쉽게 관찰할 수 있다. 본 논문에서는 이 문제를 효율적으로 풀어내기 위해 복잡한 3차원 유체의 움직임을 분석하는 게 아닌, 2차원으로 투영된 입자의 유동을 분석하여 사운드를 합성하고 제어하는 방식을 소개한다. 우리의 방법은 거품 사운드의 크기를 효율적으로 조절할 수 있도록 스크린 공간에서 계산된 거품 입자의 속도와 위치를 활용하여 청중의 위치 관계 및 사운드의 방향성을 확인하고, 이를 통해 거품 사운드를 사실적으로 합성하였다.

  • PDF

Cache simulation for measuring cache performance suitable for sound rendering (사운드 렌더링에 적합한 캐시 성능 측정을 위한 캐시 시뮬레이션)

  • Joo, Yejong;Hong, Dukki;Chung, Woonam;Park, Woo-Chan
    • Journal of the Korea Computer Graphics Society
    • /
    • v.23 no.3
    • /
    • pp.123-133
    • /
    • 2017
  • Cache performance is an important factor in hardware system. We proceed with a cache simulation to analyze the cache performance suitable for sound rendering. In addition, we introduce hardware models based on ray tracing used in geometric method and studies to improve cache performance. Cache simulation is performed on various conditions for cache size, way and block. Various simulations can be found to influence the cache hit rate. We compare cache simulation results with actual hardware performance to analyze cache performance suitable for sound rendering.

Design of Sound Synthesis System using Audio Compression Method (오디오 압축 방식을 적용한 사운드 합성 시스템의 설계)

  • 장호근;김태훈;곽종태;박주성
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.3
    • /
    • pp.27-36
    • /
    • 1998
  • 현재 상용화된 사운드 합성 기기에서 널리 쓰이고 있는 PCM 방식에서의 문제점은 고음질의 음을 얻기 위해서 많은 메모리 용량을 필요로 하는 것이다. 이 논문에서는 이 문 제를 해결하기 위해 MPEG 오디오 압축 방식을 적용하여 샘플된 음을 압축하고, 실시간으 로 이를 복호화 해서 음을 합성해내는 사운드 합성 시스템을 설계하였다. 사운드 합성 시스 템은 마이크로프로세서, 음원 DSP, MPEG 오디오 복호화기로 구성되며, 44.1Khz의 샘플링 주파수로 32개의 음을 동시에 합성할 수 있도록 설계되었다. 설계 과정에서 각각의 기능 요 소를 C언어로 기술하여 사운드 합성 시스템에 대한 소프트웨어 모델을 작성하였다. 이것을 통해 미리 전체 시스템의 동작을 시뮬레이션하고, 압축 방식을 적용함으로써 발생될 수 있 는 여러 가지 문제점에 대한 해결 방안을 제시하였다. 시뮬레이터로 시스템의 동작을 검증 한 후, DSP와 MPEG 복호화기를 포함하는 사운드 합성 시스템을 VHDL로 설계하여 시뮬 레이션을 통해 하드웨어가 정상적으로 동작함을 확인하였다. MPEG 오디오 압축 방식을 이 용함으로써 메모리 용량 측면에서는 약8:1의 감소 효과를 얻을 수 있다.

  • PDF

Reduced Raytracing Approach for Handling Sound Map with Multiple Sound Sources, Wind Advection and Temperature

  • Jong-Hyun Kim
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.9
    • /
    • pp.55-62
    • /
    • 2023
  • In this paper, we present a method that utilizes geometry-based sound generation techniques to efficiently handle multiple sound sources, wind turbulence, and temperature-dependent interactions. Recently, a method based on reduced raytracing has been proposed to update the sound position and efficiently calculate sound propagation and diffraction without recursive reflection/refraction of many rays, but this approach only considers the propagation characteristics of sound and does not consider the interaction of multiple sound sources, wind currents, and temperature. These limitations make it difficult to create sound scenes in a variety of virtual environments because they only generate static sounds. In this paper, we propose a method for efficiently constructing a sound map in a situation where multiple sounds are placed, and a method for efficiently controlling the movement of an agent through it. In addition, we propose a method for controlling sound propagation by considering wind currents and temperature. The method proposed in this paper can be utilized in various fields such as metaverse environment design and crowd simulation, as well as games that can improve content immersion based on sound.

Conversion of Image into Sound Based on HSI Histogram (HSI 히스토그램에 기초한 이미지-사운드 변환)

  • Kim, Sung-Il
    • The Journal of the Acoustical Society of Korea
    • /
    • v.30 no.3
    • /
    • pp.142-148
    • /
    • 2011
  • The final aim of the present study is to develop the intelligent robot, emulating human synesthetic skills which make it possible to associate a color image with a specific sound. This can be done on the basis of the mutual conversion between color image and sound. As a first step of the final goal, this study focused on a basic system using a conversion of color image into sound. This study describes a proposed method to convert color image into sound, based on the likelihood in the physical frequency information between light and sound. The method of converting color image into sound was implemented by using HSI histograms through RGB-to-HSI color model conversion, which was done by Microsoft Visual C++ (ver. 6.0). Two different color images were used on the simulation experiments, and the results revealed that the hue, saturation and intensity elements of each input color image were converted into fundamental frequency, harmonic and octave elements of a sound, respectively. Through the proposed system, the converted sound elements were then synthesized to automatically generate a sound source with wav file format, using Csound.

Implementation of FPGA-based SoC Design Verification System for a Soundbar with Embedded Processor (사운드바(Soundbar)를 위한 프로세서 내장 SoC 설계 검증을 위한 FPGA 시스템의 구현)

  • Kim, Sung-Woo;Lee, Seon-Hee;Choi, Seong-Jhin
    • Journal of Broadcast Engineering
    • /
    • v.21 no.5
    • /
    • pp.792-802
    • /
    • 2016
  • Real time verification is necessary, since there are several features that cannot be verified through design simulation in the design of multiband soundbar system. And then this paper describes an implementation of an FPGA-based real-time verification system for a soundbar SoC with an embedded processor. It is verified a real-time performance test and a listening test which are several features in the design stage that cannot be verified through a design simulation. The measurement of quantitative specifications such as SNR, THD+N, frequency response, etc. as well as the listening test were performed through the implemented FPGA system, and it was verified that test results satisfied the target specifications.

A Basic Study on the Pitch-based Sound into Color Image Conversion (피치 기반 사운드-컬러이미지 변환에 관한 기초연구)

  • Kang, Kun-Woo;Kim, Sung-Ill
    • Science of Emotion and Sensibility
    • /
    • v.15 no.2
    • /
    • pp.231-238
    • /
    • 2012
  • This study aims for building an application system of converting sound into color image based on synesthetic perception. As the major features of input sound, both scale and octave elements extracted from F0(fundamental frequency) were converted into both hue and intensity elements of HSI color model, respectively. In this paper, we used the fixed saturation value as 0.5. On the basis of color model conversion theory, the HSI color model was then converted into the RGB model, so that a color image of the BMP format was finally created. In experiments, the basic system was implemented on both software and hardware(TMS320C6713 DSP) platforms based on the proposed sound-color image conversion method. The results revealed that diverse color images with different hues and intensities were created depending on scales and octaves extracted from the F0 of input sound signals. The outputs on the hardware platform were also identical to those on the software platform.

  • PDF