• 제목/요약/키워드: Voice assistance

검색결과 27건 처리시간 0.024초

유비쿼터스 환경을 위한 하프미러형 인터페이스 시스템 개발과 응용 (Development of Half-Mirror Interface System and Its Application for Ubiquitous Environment)

  • 권영준;김대진;이상완;변증남
    • 제어로봇시스템학회논문지
    • /
    • 제11권12호
    • /
    • pp.1020-1026
    • /
    • 2005
  • In the era of ubiquitous computing, human-friendly man-machine interface is getting more attention due to its possibility to offer convenient services. For this, in this paper, we introduce a 'Half-Mirror Interface System (HMIS)' as a novel type of human-friendly man-machine interfaces. Basically, HMIS consists of half-mirror, USB-Webcam, microphone, 2ch-speaker, and high-speed processing unit. In our HMIS, two principal operation modes are selected by the existence of the user in front of it. The first one, 'mirror-mode', is activated when the user's face is detected via USB-Webcam. In this mode, HMIS provides three basic functions such as 1) make-up assistance by magnifying an interested facial component and TTS (Text-To-Speech) guide for appropriate make-up, 2) Daily weather information provider via WWW service, 3) Health monitoring/diagnosis service using Chinese medicine knowledge. The second one, 'display-mode' is designed to show decorative pictures, family photos, art paintings and so on. This mode is activated when the user's face is not detected for a time being. In display-mode, we also added a 'healing-window' function and 'healing-music player' function for user's psychological comfort and/or relaxation. All these functions are accessible by commercially available voice synthesis/recognition package.

대학 교수의 생애사 연구 (A Life History Approach on a Professor Academic Activities)

  • 차현주
    • 한국융합학회논문지
    • /
    • 제7권5호
    • /
    • pp.227-235
    • /
    • 2016
  • 본 연구는 대학교수의 생애사를 고찰하여 대학교수에 대한 삶의 의미를 살펴봄으로써 유아기나 아동기 진로교육을 담당하는 부모나 교사들에게 진로정보를 제공하는데 목적이 있다. 이를 위해 25년간의 교수경력을 가진 K교수를 대상으로 교수 자신의 목소리와 용어로 묘사하는 내부자적인 관점으로 생애사 연구방법으로 수행하였으며, K교수의 심층면담, 저서, 이메일, 전화면담을 통해 자료를 수집하였다. 수집된 자료는 전사하여 컴퓨터로 폴더화하고 영역분석과 분류분석 단계를 거쳐 분석되었다. 분석 결과, K교수가 교수사회에 진입하게 된 동기와 계기에서는 피나는 노력과 가족의 지지, 수어지교의 만남이 있었던 것으로 나타났다. 또한 대학 진입이후에는 연구, 교육뿐만 아니라 보직교수로서 대학에서 핵심적 역할을 담당하였다. 정년 이후의 삶은 전문가와 실천가로서 사회공헌에 기여하고 있었다. 이와 같은 K교수의' 경험에서 교수역량에는 '끊임없는 노력과 부단한 자기혁신', '강인한 신념과 뚜렷한 소명의식', '따뜻한 인간애와 실천적 삶', '유연한 사고방식과 교육적 열정' 라는 의미가 도출되었다.

생체 신호 분석을 이용한 감각형 신장 질환 진단 시스템 연구 (A Study on Kidney Diseases Diagnosis System for Sensation Type Using Physiological Signal Analysis)

  • 조동욱;김봉현;이세환
    • 한국통신학회논문지
    • /
    • 제31권10C호
    • /
    • pp.964-972
    • /
    • 2006
  • 신장은 간장과 가장 유기적인 관계가 깊은 장기로 혈액 중에서 체내 신진대사 결과 생긴 노폐물을 걸러내 오줌을 만들어 체외로 배출하는 기능을 한다. 그러나 신장은 문제가 발생할 경우 인체가 느끼는 자각증상이 크지 않기 때문에 장기 파손이 상당 부분 진행되어야 그 증상을 알게 된다. 따라서 사회적으로 신장 질환 진단에 대한 중요성이 증대되고 있다. 이를 위해 본 논문에서는 한방의 4대 진단법 중에서 망진과 청진 분야를 이용하여 신장질환에 대한 진단 방법을 제안하고자 한다. 본 논문에서 개발할 시스템은 크게 두 가지로 나누어진다. 하나는 입력 영상에 대한 보정을 통해 정확한 색상 값을 추출하고 최적화된 결과 영상을 통해 신장과 관련된 얼굴에서의 지각 부분의 색을 분석하고 그 값을 이용하여 신장 질환 진단을 하고자 한다. 또 하나는 신장과 음성 신호와의 관계론 비교, 분석하여 이를 입증하는 시스템을 설계하고자 한다. 끝으로 실험을 통해 제안한 방법의 유용성을 입증하고자 한다.

딥러닝과 교통정보 Open API를 이용한 시각장애인 버스 탑승 보조 시스템에서 딥러닝 알고리즘 성능 비교 (Comparison of Deep Learning Algorithm in Bus Boarding Assistance System for the Visually Impaired using Deep Learning and Traffic Information Open API)

  • 김태홍;여길수;정세준;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.388-390
    • /
    • 2021
  • 본 논문은 키패드, 도트매트릭스, 라이다센서, NFC 리더기를 부착한 임베디드 보드와 공공데이터포털 Open API 시스템과 딥러닝 알고리즘(YOLOv5)를 사용하여 시각장애인의 버스 탑승에 도움을 줄 수 있는 시스템을 소개한다. 이용자는 NFC 리더기 및 키패드를 통해 희망하는 버스번호를 입력한 뒤, Open API 실시간 데이터를 통해 해당 버스의 위치 및 도착예정시간 정보를 시스템에 입력해놓은 음성 출력을 통해 얻는다. 또한 도트매트릭스로 버스번호를 출력하여 기사와의 상호작용을 대기함과 동시에 딥러닝 알고리즘(YOLOv5)은 정차하는 버스 번호를 실시간 인식하고 거리센서로 버스와의 거리를 감지하여 정차유무정보를 확인, 전달하는 시스템을 제안한다.

  • PDF

영상처리 및 머신러닝 기술을 이용하는 운동 및 식단 보조 애플리케이션 (Application for Workout and Diet Assistant using Image Processing and Machine Learning Skills)

  • 이치호;김동현;최승호;황인웅;한경숙
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권5호
    • /
    • pp.83-88
    • /
    • 2023
  • 본 논문에서는 홈 트레이닝 인구가 늘어나면서 증가한 운동과 식단 보조 서비스에 대한 수요를 충족시키기 위해 운동 및 식단 보조 애플리케이션을 개발하였다. 애플리케이션은 카메라를 통해 실시간으로 촬영되는 사용자의 운동 자세를 분석하여, 안내선과 음성을 이용해 올바른 자세를 유도하는 기능을 가진다. 또한, 사용자가 사진을 촬영하면 사진에 포함된 음식들을 분류하고 각 음식의 양을 추정하여, 칼로리 등의 영양 정보를 계산하여 제공하는 기능을 가진다. 영양 정보 계산은 외부의 서버에서 수행되도록 구성했다. 서버는 계산된 결과를 애플리케이션으로 전송하고, 애플리케이션은 결과를 받아 시각적으로 출력한다. 추가로, 운동 결과와 영양 정보는 날짜별로 저장하고 확인할 수 있도록 하였다.

Real-Time Comprehensive Assistance for Visually Impaired Navigation

  • Amal Al-Shahrani;Amjad Alghamdi;Areej Alqurashi;Raghad Alzahrani;Nuha imam
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.1-10
    • /
    • 2024
  • Individuals with visual impairments face numerous challenges in their daily lives, with navigating streets and public spaces being particularly daunting. The inability to identify safe crossing locations and assess the feasibility of crossing significantly restricts their mobility and independence. Globally, an estimated 285 million people suffer from visual impairment, with 39 million categorized as blind and 246 million as visually impaired, according to the World Health Organization. In Saudi Arabia alone, there are approximately 159 thousand blind individuals, as per unofficial statistics. The profound impact of visual impairments on daily activities underscores the urgent need for solutions to improve mobility and enhance safety. This study aims to address this pressing issue by leveraging computer vision and deep learning techniques to enhance object detection capabilities. Two models were trained to detect objects: one focused on street crossing obstacles, and the other aimed to search for objects. The first model was trained on a dataset comprising 5283 images of road obstacles and traffic signals, annotated to create a labeled dataset. Subsequently, it was trained using the YOLOv8 and YOLOv5 models, with YOLOv5 achieving a satisfactory accuracy of 84%. The second model was trained on the COCO dataset using YOLOv5, yielding an impressive accuracy of 94%. By improving object detection capabilities through advanced technology, this research seeks to empower individuals with visual impairments, enhancing their mobility, independence, and overall quality of life.

시각장애인의 학습을 위한 텍스트 추출 및 점자 변환 시스템 (HunMinJeomUm: Text Extraction and Braille Conversion System for the Learning of the Blind)

  • 김채리;김지안;김용민;이예지;공기석
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권5호
    • /
    • pp.53-60
    • /
    • 2021
  • 시각장애인의 수는 증가하고 있지만 시각장애인을 위한 점역 교재는 부족하여 본인의 의지에 관계 없이 교육권을 침해받는 경우가 많다. 본 논문에서는 시각장애인의 교육권을 보장하기 위해 점자책으로 나오지 않는 교재나 문서, 사진 등을 보호자의 도움 없이도 혼자 쉽게 공부할 수 있게끔 도와주는 학습 시스템을 다룬다. 장애인 접근성을 고려하여 어플리케이션과 웹페이지를 설계하고 점자 키트는 아두이노와 점자 모듈을 이용하여 제작한다. 이 시스템은 다음과 같은 기능들을 지원한다. 첫째, 원하는 문서 또는 사진을 선택해 OCR을 이용하여 텍스트를 추출한다. 둘째, 추출한 텍스트를 음성과 점자로 변환한다. 셋째, 회원가입 기능을 제공하여 추출된 텍스트를 다시 볼 수 있도록 한다. 다양한 실험을 통해 점자 출력, 음성 출력이 정상적으로 작동하는 것을 확인하고 높은 OCR 인식률을 제공하는 것을 알 수 있었다. 또한, 시각이 완전히 차단된 상태에서도 어플리케이션이 손쉽게 이용 가능하다는 것을 확인했다.