• 제목/요약/키워드: Voice learning

검색결과 276건 처리시간 0.026초

Implementation of Extracting Specific Information by Sniffing Voice Packet in VoIP

  • Lee, Dong-Geon;Choi, WoongChul
    • International journal of advanced smart convergence
    • /
    • 제9권4호
    • /
    • pp.209-214
    • /
    • 2020
  • VoIP technology has been widely used for exchanging voice or image data through IP networks. VoIP technology, often called Internet Telephony, sends and receives voice data over the RTP protocol during the session. However, there is an exposition risk in the voice data in VoIP using the RTP protocol, where the RTP protocol does not have a specification for encryption of the original data. We implement programs that can extract meaningful information from the user's dialogue. The meaningful information means the information that the program user wants to obtain. In order to do that, our implementation has two parts. One is the client part, which inputs the keyword of the information that the user wants to obtain, and the other is the server part, which sniffs and performs the speech recognition process. We use the Google Speech API from Google Cloud, which uses machine learning in the speech recognition process. Finally, we discuss the usability and the limitations of the implementation with the example.

Wav2vec을 이용한 오디오 음성 기반의 파킨슨병 진단 (Diagnosis of Parkinson's disease based on audio voice using wav2vec)

  • 윤희진
    • 디지털융복합연구
    • /
    • 제19권12호
    • /
    • pp.353-358
    • /
    • 2021
  • 노년기에 접어들면서 알츠하이머 다음으로 흔한 퇴행성 뇌 질환은 파킨슨병이다. 파킨슨병의 증상은 손 떨림, 행동의 느려짐, 인지기능의 저하 등 일상생활의 삶의 질을 저하시키는 요인이 된다. 파킨슨병은 조기진단을 통하여 병의 진행 속도를 늦출 수 있는 질환이다. 파킨슨병의 조기진단을 위해 오디오 음성 파일 입력으로 wav2vec을 이용하여 특징을 추출하고 딥러닝(ANN)으로 파킨슨병의 유무를 진단하는 알고리즘을 구현하였다. 오디오 음성 파일을 이용하여 파킨슨병을 진단하는 실험 결과 정확도는 97.47%로 나타났다. 기존의 뉴럴네트워크를 이용하여 파킨슨병을 진단하는 결과보다 좋은 결과를 나타냈다. 오디오 음성 파일을 wav2vec 이용으로 간단하게 실험을 과정을 줄일 수 있었으며, 실험 결과 향상된 결과를 얻을 수 있었다.

Interface Modeling for Digital Device Control According to Disability Type in Web

  • Park, Joo Hyun;Lee, Jongwoo;Lim, Soon-Bum
    • Journal of Multimedia Information System
    • /
    • 제7권4호
    • /
    • pp.249-256
    • /
    • 2020
  • Learning methods using various assistive and smart devices have been developed to enable independent learning of the disabled. Pointer control is the most important consideration for the disabled when controlling a device and the contents of an existing graphical user interface (GUI) environment; however, difficulties can be encountered when using a pointer, depending on the disability type; Although there are individual differences depending on the blind, low vision, and upper limb disability, problems arise in the accuracy of object selection and execution in common. A multimodal interface pilot solution is presented that enables people with various disability types to control web interactions more easily. First, we classify web interaction types using digital devices and derive essential web interactions among them. Second, to solve problems that occur when performing web interactions considering the disability type, the necessary technology according to the characteristics of each disability type is presented. Finally, a pilot solution for the multimodal interface for each disability type is proposed. We identified three disability types and developed solutions for each type. We developed a remote-control operation voice interface for blind people and a voice output interface applying the selective focusing technique for low-vision people. Finally, we developed a gaze-tracking and voice-command interface for GUI operations for people with upper-limb disability.

Transformer 네트워크를 이용한 음성신호 변환 (Voice-to-voice conversion using transformer network)

  • 김준우;정호영
    • 말소리와 음성과학
    • /
    • 제12권3호
    • /
    • pp.55-63
    • /
    • 2020
  • 음성 변환은 다양한 음성 처리 응용에 적용될 수 있으며, 음성 인식을 위한 학습 데이터 증강에도 중요한 역할을 할 수 있다. 기존의 방법은 음성 합성을 이용하여 음성 변환을 수행하는 구조를 사용하여 멜 필터뱅크가 중요한 파라미터로 활용된다. 멜 필터뱅크는 뉴럴 네트워크 학습의 편리성 및 빠른 연산 속도를 제공하지만, 자연스러운 음성파형을 생성하기 위해서는 보코더를 필요로 한다. 또한, 이 방법은 음성 인식을 위한 다양한 데이터를 얻는데 효과적이지 않다. 이 문제를 해결하기 위해 본 논문은 원형 스펙트럼을 사용하여 음성 신호 자체의 변환을 시도하였고, 어텐션 메커니즘으로 스펙트럼 성분 사이의 관계를 효율적으로 찾아내어 변환을 위한 자질을 학습할 수 있는 transformer 네트워크 기반 딥러닝 구조를 제안하였다. 영어 숫자로 구성된 TIDIGITS 데이터를 사용하여 개별 숫자 변환 모델을 학습하였고, 연속 숫자 음성 변환 디코더를 통한 결과를 평가하였다. 30명의 청취 평가자를 모집하여 변환된 음성의 자연성과 유사성에 대해 평가를 진행하였고, 자연성 3.52±0.22 및 유사성 3.89±0.19 품질의 성능을 얻었다.

Erratum

  • 대한한방신경정신과학회
    • 동의신경정신과학회지
    • /
    • 제24권3호
    • /
    • pp.321-330
    • /
    • 2013
  • Voice Handicap Index and Voice-Related Quality of Life in Idiopathic Parkinson's Disease 10.7231/jon.2013.24.2.155, The Differences of Learning Characteristics in Sasang Constitution 10.7231/jon.2013.24.2.163, A Preliminary Comparison of the Efficacy of Auricular Acupuncture, Transdermal Nicotine Patch and Combination Therapy for Smoking Cessation 10.7231/jon.2013.24.2.179, The Effects of OnDam-tang-Kami-bang (ODK) in Antioxidant and Serotonin Metabolism Testing on P815 Cell 10.7231/jon.2013.24.2.189

CAI 음성 관리매체의 퍼스날 컴퓨터 제어에 관한 연구 (A STUDY ON CAI AUDIO SYSTEM CONTROL BY PERSONAL COMPUTER)

  • 고대곤;박상희
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1989년도 하계종합학술대회 논문집
    • /
    • pp.486-490
    • /
    • 1989
  • In this paper, a program controlling an auto-audio media - cassette deck - by a 16 bit personal computer is studied in order to execute audio and visual learning in CAI. The results of this study are as follows. 1. Audio and visual learning is executed efficiently in CAI. 2. Access rate of voice information to text/image information is about 98% and 60% in "play" and "fast forward" respectively. 3. In "fast forward", quality of a cassette tape affects voice information access rate in propotion to motor driving speed. 4. Synchronizing signal may be mistaken by defects of tape itself.

  • PDF

영어 단어 학습 애플리케이션 설계 및 구현 (A Design and Implementation of English Word Learning Application)

  • 이원주;이기원;이민철;이진호;허민호
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.59-60
    • /
    • 2022
  • 본 논문에서는 유아 영어 단어 학습 애플리케이션을 설계하고 구현한다. 이 애플리케이션은 키넥트 센서의 음성 인식 기능을 활용하여 동물과 음식 분야의 단어 학습 기능을 제공한다. 화면에 출력된 이미지에 해당하는 영어 단어를 말하면 키넥트 센서에서 그 음성을 인식하여 해당 단어의 발음이 정확한지 판별한다. 주어진 시간 내에 다양한 단어를 정확하게 발음함으로써 높은 점수를 취득하도록 구현한다.

  • PDF

DCOM 음성 모듈을 이용한 원격 대화식 학습 도구의 개발 (Development of the Remote-Educating Communication Tool using DCOM Voice Module)

  • 장승주
    • 정보처리학회논문지A
    • /
    • 제10A권2호
    • /
    • pp.173-180
    • /
    • 2003
  • 본 논문에서는 WWW을 기반으로 한 게시판을 이용하여 교사와 학습자 사이에 질의 응답이 가능한 양방향 원격 대화식 학습 방법(RECT) 모듈을 개발하였다. RECT로 DCOM 음성 모듈을 이용하였는데 음성 자료의 사용은 교사에게 학습 자료 제작의 수월성을 주고, 학습자에게는 학습 환경을 준비하는데 수월성을 주기 위함이다. 게시판에서의 모든 학습 자료 및 질의 응답은 음성 모듈의 녹음 기능을 이용하여 음성 파일로 제공한다. 먼저 교사는 기본적인 설명을 게시판에 게시하고, 학생들은 교사의 설명을 들으면서 학습한다. 학생들이 교사의 설명으로 문제를 해결할 수 없을 때는 문제가 해결 될 때까지 교사에게 질문을 할 수 있고, 교사는 그에 대한 답변을 함으로써 양방향 원격 대화식 학습을 하고자 한다.

Creation of a Voice Recognition-Based English Aided Learning Platform

  • Hui Xu
    • Journal of Information Processing Systems
    • /
    • 제20권4호
    • /
    • pp.491-500
    • /
    • 2024
  • In hopes of resolving the issue of poor quality of information input for teaching spoken English online, the study creates an English teaching assistance model based on a recognition algorithm named dynamic time warping (DTW) and relies on automated voice recognition technology. In hopes of improving the algorithm's efficiency, the study modifies the speech signal's time-domain properties during the pre-processing stage and enhances the algorithm's performance in terms of computational effort and storage space. Finally, a simulation experiment is employed to evaluate the model application's efficacy. The study's revised DTW model, which achieves recognition rates of above 95% for all phonetic symbols and tops the list for cloudy consonant recognition with rates of 98.5%, 98.8%, and 98.7% throughout the three tests, respectively, is demonstrated by the study's findings. The enhanced model for DTW voice recognition also presents higher efficiency and requires less time for training and testing. The DTW model's KS value, which is the highest among the models analyzed in the KS value analysis, is 0.63. Among the comparative models, the model also presents the lowest curve position for both test functions. This shows that the upgraded DTW model features superior voice recognition capabilities, which could significantly improve online English education and lead to better teaching outcomes.

중국의 심층학습개발 (The Development of Deep Learning in China)

  • 조옥란;이효종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.533-534
    • /
    • 2019
  • This paper is to summarize the academic status of deep learning in Chinese scientific institutions and universities based on the literatures from CNKI. We analyzed the various development of deep learning in China based on the application of computer vision, voice recognition and natural language processing.