• 제목/요약/키워드: sound based information

검색결과 636건 처리시간 0.031초

Convolutional Neural Network based Audio Event Classification

  • Lim, Minkyu;Lee, Donghyun;Park, Hosung;Kang, Yoseb;Oh, Junseok;Park, Jeong-Sik;Jang, Gil-Jin;Kim, Ji-Hwan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권6호
    • /
    • pp.2748-2760
    • /
    • 2018
  • This paper proposes an audio event classification method based on convolutional neural networks (CNNs). CNN has great advantages of distinguishing complex shapes of image. Proposed system uses the features of audio sound as an input image of CNN. Mel scale filter bank features are extracted from each frame, then the features are concatenated over 40 consecutive frames and as a result, the concatenated frames are regarded as an input image. The output layer of CNN generates probabilities of audio event (e.g. dogs bark, siren, forest). The event probabilities for all images in an audio segment are accumulated, then the audio event having the highest accumulated probability is determined to be the classification result. This proposed method classified thirty audio events with the accuracy of 81.5% for the UrbanSound8K, BBC Sound FX, DCASE2016, and FREESOUND dataset.

지능형 TV의 음성인식을 위한 참조 잡음 기반 음성개선 (Reference Channel Input-Based Speech Enhancement for Noise-Robust Recognition in Intelligent TV Applications)

  • 정상배
    • 한국정보통신학회논문지
    • /
    • 제17권2호
    • /
    • pp.280-286
    • /
    • 2013
  • 본 논문에서는 지능형 TV의 음성인터페이스를 위한 잡음제거 시스템에 대해서 제안한다. 음성인식 성능 저하에 매우 나쁜 영향을 주는 TV 소리를 제거하기 위해서 TV 소리 자체를 참조 잡음으로 하는 잡음제거 알고리즘이 구현된다. 제안된 알고리즘에서 TV 스피커와 다채널 장비간의 전달함수를 추정한다. 그 후, 위너 필터를 동작시키기 위해서 잡음의 전력 스펙트럼이 추정된다. 추가적으로 후처리 과정이 적용되어 잔존 잡음을 제거한다. 실험의 의해서 제안된 알고리즘이 5 dB 입력 SNR에서 88 %의 음성인식률을 나타내었다.

청취자 위치정보 기반 Sound Rendering 시스템 상호간섭 제거기법의 객관적 성능분석 (An Objective Performance Analysis of Crosstalk Cancellation Scheme for Sound Rendering Systems Based on Listener Position Tracking)

  • 이정혁;김영문;유승주;김선용
    • 한국통신학회논문지
    • /
    • 제36권2C호
    • /
    • pp.112-118
    • /
    • 2011
  • 본 논문에서는 청취자 위치정보 기반 상호간섭 제거기법의 객관적 성능을 분석한다. 기존외 많은 상호간섭 제거기법은 청취자가 최적청취위치에 있을 때를 가정해 설계되었다. [11]에서 제안한 공간뒤틀림/상호간섭제거기법은 청취자 위치 추적기를 사용하여 청취자의 위치에 상관없이 상호간섭 제거가 가능하다. 공간뒤틀림/상호간섭제거기법은 청취자 위치추적 부분과 상호간섭 제거 부분으로 구성된다. 본 논문에서는 청취자 위치정보 기반 상호간섭 제거기법의 객관적 성능평가를 위해 상호간섭 지표가운데 하나인 상대지수를 이용한 물리적 강인성과 좌/우 스피커의 수신전력세기 균형특성 및 균형특성의 근평균제곱오차와 유동평균을 통해 공간뒤틀림/상호간섭 제거기법의 객관적인 간섭제거성능을 보였다.

멀티로터 UAV 환경에서의 CNN 기반 복소 스펙트로그램 향상 기법 (CNN based Complex Spectrogram Enhancement in Multi-Rotor UAV Environments)

  • 김영진;김은경
    • 한국정보통신학회논문지
    • /
    • 제24권4호
    • /
    • pp.459-466
    • /
    • 2020
  • 멀티로터 UAV(Unmanned Aerial Vehicle)를 이용해서 수집한 음향 데이터는 모터나 프로펠러에서 발생하는 자체 소음이나 비행 중 발생하는 바람 소리 등으로 인해 음향 품질이 크게 손상되는 문제가 발생한다. 멀티로터 UAV 환경에서는 목표 음향의 크기뿐만 아니라 위상도 크게 손상되기 때문에 크기와 위상을 모두 고려해서 음향을 향상시킬 필요가 있다. 하지만 위상은 크기와 달리 구조적인 특징이 잘 나타나지 않으므로 향상시키는 것이 쉽지 않다. 따라서 본 연구에서는 크기와 위상을 모두 표현할 수 있는 복소 스펙트로그램을 기초로 잡음을 제거해서 목표 음향의 품질을 향상시키는 CNN 기반 복소 스펙트로그램 향상 방법을 제안한다.

Focal Loss와 앙상블 학습을 이용한 야생조류 소리 분류 기법 (Wild Bird Sound Classification Scheme using Focal Loss and Ensemble Learning)

  • 이재승;유제혁
    • 한국산업정보학회논문지
    • /
    • 제29권2호
    • /
    • pp.15-25
    • /
    • 2024
  • 효과적인 동물 생태계 분석을 위해서는 동물 서식 현황을 자동으로 파악할 수 있는 동물 관제 기술이 중요하다. 특히 울음소리로 종을 판별하는 동물 소리 분류 기술은 영상을 통한 판별이 어려운 환경에서 큰 주목을 받고 있다. 기존 연구들은 단일 딥러닝 모델을 사용하여 동물 소리를 분류하였으나, 야외 환경에서 수집된 동물 소리는 많은 배경 잡음을 포함하여 단일 모델의 판별력을 악화시키며, 종에 따른 데이터 불균형으로 인해 모델의 편향된 학습을 야기한다. 이에, 본 논문에서는 클래스의 데이터 수를 고려하여 페널티를 부여하는 Focal Loss를 사용한 여러 분류 모델의 예측결과를 앙상블을 통해 결합하여 잡음이 많은 동물 소리를 효과적으로 분류할 수 있는 기법을 제안한다. 공개 데이터 셋을 사용한 실험에서, 제안된 기법은 단일 모델의 평균 성능에 비해 Recall 기준으로 최대 22.6%의 성능 개선을 달성하였다.

선행음 효과를 이용한 최적의 음성피난유도음에 관한 연구 (A Study on the Optimized Announcement Based Evacuation Guidance Using Haas Effect)

  • 백은선;김선우;백건종;신훈;송민정;국찬
    • 한국화재소방학회논문지
    • /
    • 제25권2호
    • /
    • pp.101-106
    • /
    • 2011
  • 본 연구에서는 예기치 않는 화재 등의 재해가 돌발적으로 발생하였을 경우 소리 정보에 의해서 사람들을 적극적으로 올바른 방향으로 피난 유도시키려면 피난자가 유도 정보의 내용을 알아들을 뿐만 아니라 피난 방향도 지각할 수 있는 것이 필요하다. 이에 피난 유도음의 방향을 감지할 수 있는 선행음 효과를 이용하여 각 건물공간에서 선행음과 후속음에 대해서 음압레벨 변화와 지연시간 변화에 따른 청감실험 결과 즉, 최적의 음성 피난유도음을 도출하였다. 각 실내공간에서 최적의 음성 피난 유도음은 다음과 같다. 1) 강의실 공간에서 음성 피난 유도음의 최적의 조건은 선행음보다 후속음이 지연시간을 10ms~50ms 갖는 경우와 선행음과 후속음의 음압레벨 차이가 없거나 선행음이 높은 경우에 선행음 방향에 대하여 양호하게 인지하였다. 2) 복도 공간에서의 최적의 음성 피난 유도음은 선행음보다 후속음이 지연시간 20~60ms인 경우에 선행음에 대하여 양호하게 인지하였다. 3) 체육관에서는 최적의 음성 피난유도음은 선행음보다 후속음이 지연시간 10~40ms인 경우와 선행음이 후속음보다 음압레벨이 크거나 같은 경우에 선행음에 대하여 양호하게 인지하였다.

심잡음 정량화에 관한 연구 (A Study of Heart Murmur Quantification)

  • 엄상희
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.252-255
    • /
    • 2016
  • 심음은 가장 쉽게 추출, 보관이 가능하고 가장 빨리 심장 질환을 진단하는데 도움을 줄 수 있기에 많이 사용되고 있다. 심음은 청진, 전자 청진을 통하여 얻어지는데 질환의 판정을 위해서는 전문의 많은 경험에 의존하고 있고, 자동 진단을 위한 장비는 매우 고가이며, 이를 위하여 심음의 정량화 과정이 선행되어야 한다. 본 연구에서는 심음의 한 종류인 심잡음을 심장 질환 별로 추출하여 정량화하여 자동 진단에 도움을 주고자 하였다. 심잡음은 심잡음 에너지율을 계산하여 정량화에 이용하였다. 추출된 심잡음 에너지의 파워 스펙트럼은 심장 질환별로 분류 가능한 형태학적 특징을 나타내었다.

  • PDF

청각 기반 뇌-컴퓨터 인터페이스 구현을 위한 골전도 이어폰의 활용 가능성 (Feasibility of Bone Conduction Earphones for Auditory Brain-Computer Interface)

  • 이주옥;주경호;김도원
    • 대한의용생체공학회:의공학회지
    • /
    • 제41권1호
    • /
    • pp.22-27
    • /
    • 2020
  • Auditory stimuli are commonly used in various electroencephalogram experiments, also in EEG-based brain-computer interface systems. However, using conventional earphones that blocks the ear canal attenuates or even blocks external environmental sound which might cause loss of crucial information from surroundings. Instead, bone-conductive earphones are able to deliver sound through vibration without blocking the ear canal. To investigate the feasibility of the bone-conductive earphones for auditory-stimuli based experiments, we compared N100 event-related potential features as well the event-related spectral perturbation and inter-trial coherence of auditory steady-state response between conventional and bone-conductive earphones. The results showed no significant differences between bone conduction and conventional earphones regardless of distinct sound pressures. This result shows that bone conductive earphones can be used for auditory experiments when the environmental sound is crucial to the user.

컬러이미지-소리 변환 시스템에 관한 기초연구 (A Basic Study on the System of Converting Color Image into Sound)

  • 김성일;정진승
    • 한국지능시스템학회논문지
    • /
    • 제20권2호
    • /
    • pp.251-256
    • /
    • 2010
  • 본 논문은 컬러이미지에서 소리를 연상하는 인간의 공감각적 기능을 모방하는 지능로봇의 개발을 위하여 색-음 상호변환에 기초한 응용 시스템의 구축을 목표로 하고 있다. 그 첫 번째 단계로서 컬러 이미지를 소리로 변환하는 방법론에 관한 기초 연구 및 이에 기반한 기본 시스템을 구현하고자 한다. 본 연구에서는 컬러 영상이 갖고 있는 색상과 소리의 파동, 즉 상호 주파수 특성에서의 유사성을 이용하여 가시영역에서 가청영역으로 변환하는 방법을 제시하고, 컬러모델 변환 및 변환된 모델에서의 히스토그램을 이용하여 컬러 영상을 소리의 청각적인 요소로 변환 가능하게 하는 색-음 변환 방법을 제시하고 있다. 또한 본 연구에서 제시된 색-음 변환 방법을 토대로 Microsoft Visual C++을 이용하여 코딩하고 실제 기본 응용 시스템을 구현해 보았다. 그 결과 색채와 소리의 상호 연관성 즉, 색채의 색상(Hue), 채도(Saturation)및 명도(Intensity)를 음의 높이(Fundamental Frequency), 하모닉(Harmonics) 및 옥타브(Octave)에 각각 대응시키고, 변환된 음향 요소를 Csound로 합성하여 웨이브 파일로 변환됨을 확인하였다.

효과음 자막 생성을 위한 딥러닝 기반의 다중 사운드 분류 (A Multiclass Sound Classification Model based on Deep Learning for Subtitles Production of Sound Effect)

  • 정현영;김규미;김현희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.397-400
    • /
    • 2020
  • 본 논문은 영화에 나오는 효과음을 자막으로 생성해주는 자동자막생성을 제안하며, 그의 첫 단계로써 다중 사운드 분류 모델을 제안하였다. 고양이, 강아지, 사람의 음성을 분류하기 위해 사운드 데이터의 특정벡터를 추출한 뒤, 4가지의 기계학습에 적용한 결과 최적모델로 딥러닝이 선정되었다. 전처리 과정 중 주성분 분석의 유무에 따라 정확도는 81.3%와 33.3%로 확연한 차이가 있었으며, 이는 복잡한 특징을 가지는 사운드를 분류하는데 있어 주성분 분석과 넓고 깊은 형태의 신경망이 보다 개선된 분류성과를 가져온 것으로 생각된다.