• 제목/요약/키워드: human audio voice

검색결과 15건 처리시간 0.03초

Human-Robot Interaction in Real Environments by Audio-Visual Integration

  • Kim, Hyun-Don;Choi, Jong-Suk;Kim, Mun-Sang
    • International Journal of Control, Automation, and Systems
    • /
    • 제5권1호
    • /
    • pp.61-69
    • /
    • 2007
  • In this paper, we developed not only a reliable sound localization system including a VAD(Voice Activity Detection) component using three microphones but also a face tracking system using a vision camera. Moreover, we proposed a way to integrate three systems in the human-robot interaction to compensate errors in the localization of a speaker and to reject unnecessary speech or noise signals entering from undesired directions effectively. For the purpose of verifying our system's performances, we installed the proposed audio-visual system in a prototype robot, called IROBAA(Intelligent ROBot for Active Audition), and demonstrated how to integrate the audio-visual system.

오디오/음성 컬러 처리 기술 연구 (A Study on Audio/Voice Color Processing Technique)

  • 김광기;김상진;손백권;한민수
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 5월 학술대회지
    • /
    • pp.153-156
    • /
    • 2003
  • In this paper, we studied advanced audio/ voice information processing techniques, and trying to introduce more human friendly audio/voice. It is just in the beginning stage. Firstly, we approached in well-known time-domain methods such as moving average, differentiation, interpolation, and decimation. Moreover, some variation of them and envelope contour modification are utilized. We also suggested the MOS test to evaluate subjective listening factors. In the long term viewpoint, user's preference, mood, and environmental conditions will be considered and according to them, we hope our future technique can adapt speech and audio signals automatically.

  • PDF

효과적인 인간-로봇 상호작용을 위한 딥러닝 기반 로봇 비전 자연어 설명문 생성 및 발화 기술 (Robot Vision to Audio Description Based on Deep Learning for Effective Human-Robot Interaction)

  • 박동건;강경민;배진우;한지형
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.22-30
    • /
    • 2019
  • For effective human-robot interaction, robots need to understand the current situation context well, but also the robots need to transfer its understanding to the human participant in efficient way. The most convenient way to deliver robot's understanding to the human participant is that the robot expresses its understanding using voice and natural language. Recently, the artificial intelligence for video understanding and natural language process has been developed very rapidly especially based on deep learning. Thus, this paper proposes robot vision to audio description method using deep learning. The applied deep learning model is a pipeline of two deep learning models for generating natural language sentence from robot vision and generating voice from the generated natural language sentence. Also, we conduct the real robot experiment to show the effectiveness of our method in human-robot interaction.

멀티미디어 입출력 서버를 위한 오디오 변환 필터 (Audio Transformation Filter for Multimedia I/O Server)

  • 조병호;장유탁;김우진;김기종;유기영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제6권6호
    • /
    • pp.580-587
    • /
    • 2000
  • 본 논문에서는 음성 입력으로 받아들인 멜로디를 MIDI 데이타로 변환하는 필터의 설계 방법과 분산 멀티미디어 환경에서 동작하는 입출력 서버 시스템인 MuX 환경에 적용하는 방법에 관해 기술한다. MuX는 다양한 입출력 디바이스와의 인터페이스를 위해 장치 독립적인 DLM(Dynamic Linking Module)을 사용하는데, 현재 MuX 시스템의 입출력 디바이스 인터페이스로 사용되는 웨이브 형식의 오디오 DLM과 MIDI(Musical Instrument Digital Interface) DLM의 기능을 보강하기 위해서 사람의 음성을 MIDI 데이타로 변환해주는 필터를 설계하고 구현하였다. MIDI 데이타의 입력 방식이 파일이나 MIDI 악기 외에도 사람의 음성 데이타로도 가능하므로 악기 연구에 익숙하지 않은 사람들도 MIDI 데이타를 입력할 수 있고, 미디어의 표현력이 증가되어 다양한 응용에 활용될 수 있다.

  • PDF

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점 (Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface)

  • 김기현;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.166-175
    • /
    • 2022
  • Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.

Wav2vec을 이용한 오디오 음성 기반의 파킨슨병 진단 (Diagnosis of Parkinson's disease based on audio voice using wav2vec)

  • 윤희진
    • 디지털융복합연구
    • /
    • 제19권12호
    • /
    • pp.353-358
    • /
    • 2021
  • 노년기에 접어들면서 알츠하이머 다음으로 흔한 퇴행성 뇌 질환은 파킨슨병이다. 파킨슨병의 증상은 손 떨림, 행동의 느려짐, 인지기능의 저하 등 일상생활의 삶의 질을 저하시키는 요인이 된다. 파킨슨병은 조기진단을 통하여 병의 진행 속도를 늦출 수 있는 질환이다. 파킨슨병의 조기진단을 위해 오디오 음성 파일 입력으로 wav2vec을 이용하여 특징을 추출하고 딥러닝(ANN)으로 파킨슨병의 유무를 진단하는 알고리즘을 구현하였다. 오디오 음성 파일을 이용하여 파킨슨병을 진단하는 실험 결과 정확도는 97.47%로 나타났다. 기존의 뉴럴네트워크를 이용하여 파킨슨병을 진단하는 결과보다 좋은 결과를 나타냈다. 오디오 음성 파일을 wav2vec 이용으로 간단하게 실험을 과정을 줄일 수 있었으며, 실험 결과 향상된 결과를 얻을 수 있었다.

Voice Activity Detection with Run-Ratio Parameter Derived from Runs Test Statistic

  • Oh, Kwang-Cheol
    • 음성과학
    • /
    • 제10권1호
    • /
    • pp.95-105
    • /
    • 2003
  • This paper describes a new parameter for voice activity detection which serves as a front-end part for automatic speech recognition systems. The new parameter called run-ratio is derived from the runs test statistic which is used in the statistical test for randomness of a given sequence. The run-ratio parameter has the property that the values of the parameter for the random sequence are about 1. To apply the run-ratio parameter into the voice activity detection method, it is assumed that the samples of an inputted audio signal should be converted to binary sequences of positive and negative values. Then, the silence region in the audio signal can be regarded as random sequences so that their values of the run-ratio would be about 1. The run-ratio for the voiced region has far lower values than 1 and for fricative sounds higher values than 1. Therefore, the parameter can discriminate speech signals from the background sounds by using the newly derived run-ratio parameter. The proposed voice activity detector outperformed the conventional energy-based detector in the sense of error mean and variance, small deviation from true speech boundaries, and low chance of missing real utterances

  • PDF

고속 음성 문서 검색을 위한 Expected Matching Score 기반의 문서 확장 기법 (Expected Matching Score Based Document Expansion for Fast Spoken Document Retrieval)

  • 서민구;정규준;오영환
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2006년도 추계학술대회 발표논문집
    • /
    • pp.71-74
    • /
    • 2006
  • Many works have been done in the field of retrieving audio segments that contain human speeches without captions. To retrieve newly coined words and proper nouns, subwords were commonly used as indexing units in conjunction with query or document expansion. Among them, document expansion with subwords has serious drawback of large computation overhead. Therefore, in this paper, we propose Expected Matching Score based document expansion that effectively reduces computational overhead without much loss in retrieval precisions. Experiments have shown 13.9 times of speed up at the loss of 0.2% in the retrieval precision.

  • PDF

데이터 증강기법을 이용한 음성 위조 공격 탐지모형의 성능 향상에 대한 연구 (Data augmentation in voice spoofing problem)

  • 최효정;곽일엽
    • 응용통계연구
    • /
    • 제34권3호
    • /
    • pp.449-460
    • /
    • 2021
  • 본 논문에서는 음성위조공격탐지(Voice spoofing detection) 문제에 데이터 증강을 적용한다. ASVspoof 2017은 리플레이 공격 탐지에 대해 다루며 진짜 사람의 음성과 환경이나 녹음·재생 장치의 조건들을 다르게 하여 위조한 가짜 음성을 분류하는 것을 목적으로 한다. 지금까지 이미지 데이터에 대한 데이터 증강 연구가 활발히 이루어졌으며 음성에도 데이터 증강을 시도하는 여러 연구가 진행되어왔다. 하지만 음성 리플레이 공격에 대한 데이터 증강시도는 이루어지지 않아 본 논문에서는 데이터 증강기법을 통한 오디오 변형이 리플레이 공격 탐지에 어떠한 영향을 미치는지에 대해 탐구해본다. 총 7가지의 데이터 증강기법을 적용해보았으며 그 중 DVC, Pitch 음성 증강기법이 성능향상에 도움되었다. DVC와 Pitch는 기본 모델 EER의 약 8% 개선을 보여주었으며, 특히 DVC는 57개의 환경변수 중 일부 환경에서 눈에 띄는 정확도 향상이 있었다. 가장 큰 폭으로 증가한 RC53의 경우 DVC가 기본 모델 정확도의 약 45% 향상을 이끌어내며 기존에 탐지하기 어려웠던 고사양의 녹음·재생 장치를 잘 구분해냈다. 본 연구를 토대로 기존에 증강기법의 효과에 대한 연구가 이루어지지 않았던 음성 위조 탐지 문제에서 DVC, Pitch 데이터 증강기법이 성능 향상에 도움이 된다는 것을 알아내었다.

Red5와 Node.js를 활용한 실시간 음성 및 영상 시스템의 설계 및 구현 (Design and Implementation of Real-time Audio and Video System Using Red5 and Node.js)

  • 김혁진;곽우영
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권10호
    • /
    • pp.159-168
    • /
    • 2014
  • 웹은 문서를 공유하고 전달하는 방식이다. 그러나 현재는 음성/영상 데이터를 실시간으로 전달이 가능하며, 더욱 발전하여 사물과 연동되는 사물 인터넷으로 발전이 되고 있다. 기존의 음성/영상 데이터를 전달하는 프로그램의 경우 이기종 시스템과의 인터페이스, 확장성, 비용에서 많은 제약이 따른다. 본 논문에서는 음성/영상 전달 시스템이 이기종 운영체제의 제약을 개선하며, 기존 ERP 시스템과 호환성 및 확장성이 좋은 오픈소스 기반 시스템을 연구하여 개발한다. 프로그램은 이기종 시스템과의 인터페이스, 확장성을 고려한 방법론으로 프로그램을 설계 및 개발 하며, 시스템 구성 또한 오픈소스 기반의 비용절감과 확장성을 고려한 시스템으로 구성한다. 그러므로 연구 개발된 시스템은 확장성 및 인터페이스에서 우수함을 보이며, 시스템의 설계 및 개발 방법론은 영상회의, 영상채팅, 실시간 HMI(Human Machine Interface), 영상 SNS 등 여러 분야에서 활용이 가능하다.