• 제목/요약/키워드: 소리 생성

Search Result 88, Processing Time 0.026 seconds

Efficient Foam Sound Generation with Screened Clustering Based Sound Synthesis (스크린드 군집화 기반의 사운드 합성을 이용한 효율적인 거품 사운드 생성)

  • Shin, YoungChan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.553-556
    • /
    • 2022
  • 본 논문에서는 거품 입자를 활용하여 시뮬레이션 장면에 맞는 소리를 효율적으로 합성할 수 있는 기법을 제안한다. 물리 기반 시뮬레이션 환경에서 소리를 표현하는 대표적인 방법은 생성과 합성이다. 사운드 생성의 경우 시뮬레이션 장면마다 물리 기반 접근법을 사용하여 소리를 생성할 수 있는데 계산 시간과 재질 표현의 어려움으로 다양한 시뮬레이션 장면에 대한 소리를 만들어 내기에는 쉽지 않다. 사운드 합성의 경우 소리 데이터를 미리 구축해야 하는 사전 준비가 필요하지만, 한 번 구축하면 비슷한 장면에서는 같은 소리 데이터를 활용할 수 있는 점이 있다. 따라서 본 논문에서는 거품 시뮬레이션의 소리 합성을 위해 소리 데이터를 구축하고 거품 입자의 효율적인 군집화를 통해 계산 시간을 줄이면서 소리의 사실감은 개선할 수 있는 사운드 합성 기법을 제안한다.

  • PDF

A Deep Learning System for Emotional Cat Sound Classification and Generation (감정별 고양이 소리 분류 및 생성 딥러닝 시스템)

  • Joo Yong Shim;SungKi Lim;Jong-Kook Kim
    • The Transactions of the Korea Information Processing Society
    • /
    • v.13 no.10
    • /
    • pp.492-496
    • /
    • 2024
  • Cats are known to express their emotions through a variety of vocalizations during interactions. These sounds reflect their emotional states, making the understanding and interpretation of these sounds crucial for more effective communication. Recent advancements in artificial intelligence has introduced research related to emotion recognition, particularly focusing on the analysis of voice data using deep learning models. Building on this background, the study aims to develop a deep learning system that classifies and generates cat sounds based on their emotional content. The classification model is trained to accurately categorize cat vocalizations by emotion. The sound generation model, which uses deep learning based models such as SampleRNN, is designed to produce cat sounds that reflect specific emotional states. The study finally proposes an integrated system that takes recorded cat vocalizations, classify them by emotion, and generate cat sounds based on user requirements.

Sound Model Generation using Most Frequent Model Search for Recognizing Animal Vocalization (최대 빈도모델 탐색을 이용한 동물소리 인식용 소리모델생성)

  • Ko, Youjung;Kim, Yoonjoong
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.10 no.1
    • /
    • pp.85-94
    • /
    • 2017
  • In this paper, I proposed a sound model generation and a most frequent model search algorithm for recognizing animal vocalization. The sound model generation algorithm generates a optimal set of models through repeating processes such as the training process, the Viterbi Search process, and the most frequent model search process while adjusting HMM(Hidden Markov Model) structure to improve global recognition rate. The most frequent model search algorithm searches the list of models produced by Viterbi Search Algorithm for the most frequent model and makes it be the final decision of recognition process. It is implemented using MFCC(Mel Frequency Cepstral Coefficient) for the sound feature, HMM for the model, and C# programming language. To evaluate the algorithm, a set of animal sounds for 27 species were prepared and the experiment showed that the sound model generation algorithm generates 27 HMM models with 97.29 percent of recognition rate.

Acoustic Features and Structural Disorders in Korean Singers (가수들에 대한 음향음성학적 특성 및 성대병변에 대한 분석)

  • 홍기환
    • Proceedings of the KSLP Conference
    • /
    • 1998.11a
    • /
    • pp.211-212
    • /
    • 1998
  • 소리란 인간만이 가지는 특유한 발성구조에 의해 생성되는 음으로서 주로 언어소통을 목적으로 발성된다. 소리의 생성은 일정한 성문하압과 성대의 긴장 및 내전운동이 형성되면 공기가 성대를 통과하면서 성대가 진동하여 발생되며 발성된 음은 후두, 인두 구강등의 발성기관에서 공명되고 증폭되므로서 특이한 음색을 가진 소리로 발생되는 것이다. 그 중에서 노래소리란 이러한 발성기관의 종합적이고 이상적인 조화에 의해 발생되는 소리의 극치이다. 그러나 이러한 발성기관이 이상적으로 조화되지 않을 경우 소리의 변화 및 성대에 병변이 초래되어 치료를 요하는 경우도 있다. (중략)

  • PDF

Novel Sound Energy and Reversal Mapping for Procedural Sound Synthesis in Cloth Simulation (옷감 시뮬레이션의 절차적 사운드 합성을 위한 새로운 사운드의 에너지와 반전 매핑)

  • Kim, Dong-Hui;Moon, Seong-Hyeok;Shin, Young-Chan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.587-590
    • /
    • 2022
  • 본 논문에서는 물리기반 옷감 시뮬레이션에 적합한 소리를 효율적으로 생성하기 위한 데이터 기반 합성 기법을 제안한다. 시뮬레이션에서 소리를 표현하는 방법은 크게 생성과 합성이 있지만, 합성은 실시간 애플리케이션에서 활용이 가능하기 때문에 인터랙티브한 환경에서 자주 활용되고 있다. 하지만, 데이터에 의존하기 때문에 원하는 장면에 부합하는 사운드를 합성하기는 어려우며, 기존 방법은 한 방향으로만 사운드 데이터를 검색하기 때문에 불연속으로 인한 끊김 현상이 발생한다. 본 논문에서는 양방향 사운드 합성 기법을 제시하며, 이를 통해 불연속적으로 합성되는 사운드 결과를 효율적으로 개선될 수 있음을 보여준다.

  • PDF

전통음악 및 서양음악 가수에 대한 음악 음형대 및 성대진동양상에 대한 연구

  • 홍기환;박병암;양윤수;김현기
    • Proceedings of the KSLP Conference
    • /
    • 1997.11a
    • /
    • pp.254-254
    • /
    • 1997
  • 서양음악을 전공하는 숙달된 가수들은 공연시 효과적인 소리의 울림현상을 생성하여 노래소리가 잘 전달되는데 이는 노래소리에 대한 음악 음형대의 형성에 기인한다. 그러나 판소리의 일반적인 창법은 발성중 적절한 감정의 삽입과 더불어 아주 깨끗한 소리보다는 적절하게 탁음을 조화시키므로서 우리민족의 정서에 맞는 감정을 전달하는 것으로 판소리 가수만이 가지는 독특한 발성법에 의해 성대의 과다한 접촉 및 진동에 의해 병변이 초래되며 심한 경우 발성기관에 병적인 병변이 발생하여 치료를 요하는 경우도 많다. (중략)

  • PDF

Sound Synthesis using Block & Moving Ball (블록과 움직이는 공을 이용한 사운드 신디시스)

  • Chang, Kyu-Sik;Jang, Dong-Hun;Kim, Tae-Yong
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02b
    • /
    • pp.292-297
    • /
    • 2007
  • 터치스크린을 통한 유저의 입력은 미디신호로 변환되며 생성된 블록은 하나의 음표 또는 다수의 음표로 남게 되며 유저가 설정한 타임라인의 빠르기에 따라 입력된 블록 위치의 음계 값을 토대로 소프트웨어 신디사이저의 오실 레이터에서 생성된 소리를 스피커로 출력해 낸다. 블록은 서로 다른 색깔의 8개의 미디채널로 존재하여 각 채널을 레이어 시켜 다른 블록을 생성하여 사인파, 톱니파, 삼각파, 사각파등을 엔벨로프 변형을 통해 만든 10가지 다른 소리로 지정하여 넣을 수 있다. 미디의 멀티채널방식을 이용해 다중 레이어의 입력방식을 취했으며, 관객은 작곡 모드에서는 일정한 패턴을 가진 단음이나 화성을, 게임모드에서는 생성된 공이 블록을 부딪치며 예측하기 어렵게 생성된 단음이나 화성음을 만들 수 있다. 생성한 음이 재생될 때에는 생성된 음정의 주파수 값과 음량에 따라서 RGB LED 조명이 반응을 하며 유저가 생성시킨 독특한 음악 진행에 따라 조명의 밝기와 색깔이 바뀌게 된다.

  • PDF

음성인식 기반 인터렉티브 미디어아트의 연구 - 소리-시각 인터렉티브 설치미술 "Water Music" 을 중심으로-

  • Lee, Myung-Hak;Jiang, Cheng-Ri;Kim, Bong-Hwa;Kim, Kyu-Jung
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.354-359
    • /
    • 2008
  • This Audio-Visual Interactive Installation is composed of a video projection of a video Projection and digital Interface technology combining with the viewer's voice recognition. The Viewer can interact with the computer generated moving images growing on the screen by blowing his/her breathing or making sound. This symbiotic audio and visual installation environment allows the viewers to experience an illusionistic spacephysically as well as psychologically. The main programming technologies used to generate moving water waves which can interact with the viewer in this installation are visual C++ and DirectX SDK For making water waves, full-3D rendering technology and particle system were used.

  • PDF

Trained Creativity by the Teach Aloud (소리내어 가르치기 방법을 통해 훈련된 창의성)

  • 강석민;한광희
    • Proceedings of the Korean Society for Cognitive Science Conference
    • /
    • 2000.05a
    • /
    • pp.235-240
    • /
    • 2000
  • 창의성 연구는 개인적, 사회적 맥락에서 고려해야 할 다양한 시사점을 가진 분야이다. 하지만 지금까지 창의성 연구는 창의성 자체에 대한 개념이 명확하지 않을 뿐 아니라, 창의성을 태어날 때부터 타고나는 고유한 영역이라는 인식 때문에 그에 대한 연구가 비교적 부족한 실정이다. 본 연구에서는 창의성이 새로운 정보를 기존 지식과 결합하여 이를 문제상황에서 적용하여 유용함을 입증하는 행위라는 전제하에, 각 개인에게 내재된 창의적 사고 능력이 특정한 지시 혹은 학습방법(소리내어 가르치기)의 경험을 통해 발현될 수 있으리라 보았다. 창의성의 핵심요소인 통합적, 분석적, 실용적 사고능력을 측정하여 창의성이 높고, 낮은 집단을 구분하고, 이를 근거로 게임 규칙을 소리내어 가르치기 경험을 한 집단과 통제집단(단순암기)으로 각각 구분하여 게임에서 승리, 즉 창의적 문제해결이 소리내어 가르치기 방법을 통해 실현될 수 있음을 알아보고자 했다. 창의적 사고능력은 소리내어 가르치기를 경험한 집단에서 유의미하게 발현되었다. 또한 소리내어 가르치는 경험을 한 실험참가자들은 프로토콜 분석에서 보다 정교화된 게임의 규칙을 생성하였으며, 게임의 규칙을 정확히 알고 있는 것으로 나타났다. 이는 가르치는 경험을 통해 새로운 정보를 보다 잘 조직화하고, 이를 실제 문제상황에 적용한 것으로 해석되었다.

  • PDF