• 제목/요약/키워드: Artificial Intelligence Speaker

검색결과 45건 처리시간 0.024초

사물인터넷 기반의 자가 전력을 이용한 무선 버스 정보 및 재난 정보 시스템 (Self-powered wireless bus information and disaster information system based on Internet of Things (IoT))

  • 김태국
    • 사물인터넷융복합논문지
    • /
    • 제8권1호
    • /
    • pp.17-22
    • /
    • 2022
  • 본 논문은 사물인터넷 기반의 자가 전력을 이용한 무선 버스 정보 및 재난 정보 시스템에 관한 연구이다. 기존의 버스 정보 시스템은 유선으로 전력과 통신을 제공함에 따라 유선 매설작업으로 인한 설치비용 증가와 설치 장소 제약의 문제가 있다. 이러한 문제를 해결하기 위해 자가 전력을 이용한 무선 버스 정보 및 재난 정보 시스템을 제안하였다. 제안된 시스템은 버스 도착 정보를 제공하며, 자연재해 등의 재난 발생 시, 시스템의 스피커를 통해 재난 정보도 알림으로써 혼란과 피해를 줄일 수 있다. 본 연구에서는 태양광 모듈을 이용한 자가 전력 시스템을 제안하였고, 무선 WiFi 또는 LTE를 통해 데이터를 송·수신하기 때문에 설치비용을 줄일 수 있고 설치 장소 제약의 문제를 해결할 수 있다.

지식베이스 확장을 위한 멀티소스 비정형 문서에서의 정보 추출 시스템의 개발 (Development of Information Extraction System from Multi Source Unstructured Documents for Knowledge Base Expansion)

  • 최현승;김민태;김우주;신동욱;이용훈
    • 지능정보연구
    • /
    • 제24권4호
    • /
    • pp.111-136
    • /
    • 2018
  • 지식베이스를 구축하는 작업은 도메인 전문가가 온톨로지 스키마를 이해한 뒤, 직접 지식을 정제하는 수작업이 요구되는 만큼 비용이 많이 드는 활동이다. 이에, 도메인 전문가 없이 다양한 웹 환경으로부터 질의에 대한 답변 정보를 추출하기 위한 자동화된 시스템의 연구개발의 필요성이 제기되고 있다. 기존의 정보 추출 관련 연구들은 웹에 존재하는 다양한 형태의 문서 중 학습데이터와 상이한 형태의 문서에서는 정보를 효과적으로 추출하기 어렵다는 한계점이 존재한다. 또한, 기계 독해와 관련된 연구들은 문서에 정답이 있는 경우를 가정하고 질의에 대한 답변정보를 추출하는 경우로서, 문서의 정답포함 여부를 보장할 수 없는 실제 웹의 비정형 문서로부터의 정보추출에서는 낮은 성능을 보인다는 한계점이 존재한다. 본 연구에서는 지식베이스 확장을 위하여 웹에 존재하는 멀티소스 비정형 문서로부터 질의에 대한 정보를 추출하기 위한 시스템의 개발 방법론을 제안하고자 한다. 본 연구에서 제안한 방법론은 "주어(Subject)-서술어(Predicate)"로 구분된 질의에 대하여 위키피디아, 네이버 백과사전, 네이버 뉴스 3개 웹 소스로부터 수집된 비정형 문서로부터 관련 정보를 추출하며, 제안된 방법론을 적용한 시스템의 성능평가를 위하여, Wu and Weld(2007)의 모델을 베이스라인 모델로 선정하여 성능을 비교분석 하였다. 연구결과 제안된 모델이 베이스라인 모델에 비해, 위키피디아, 네이버 백과사전, 네이버 뉴스 등 다양한 형태의 문서에서 정보를 효과적으로 추출하는 강건한 모델임을 입증하였다. 본 연구의 결과는 현업 지식베이스 관리자에게 지식베이스 확장을 위한 웹에서 질의에 대한 답변정보를 추출하기 위한 시스템 개발의 지침서로서 실무적인 시사점을 제공함과 동시에, 추후 다양한 형태의 질의응답 시스템 및 정보추출 연구로의 확장에 기여할 수 있을 것으로 기대한다.

임베디드 직렬 다중 생체 인식 시스템 개발에 관한 연구 (A Study on the Development of Embedded Serial Multi-modal Biometrics Recognition System)

  • 김정훈;권순량
    • 한국지능시스템학회논문지
    • /
    • 제16권1호
    • /
    • pp.49-54
    • /
    • 2006
  • 현재의 지문 인식 시스템은 지문 패턴의 복제와 지문 특징점의 해킹이라는 불안한 요소가 잠재되어 있어, 시스템 오동작의 주요 원인이 되기도 한다. 이에 본 논문에서는 신체의 일부인 지문을 주 핵심 인식기로 사용하고, 여기에 최근 널리 이용 되고 있는 화자 인증을 이용하여 직렬 형태의 다중 생체인식 시스템을 구현하였다. 구현된 시스템은 다중생체인식시스템으로 먼저 음성에 대한 인증과정이 성공하면 지문에 대한 인식과정을 수행하는 구조로 되어있다. 또한 효율적인 실시간 인증 처리를 위해 기존의 음성 인식 알고리즘 중에서 화자 종속형인 DTW(Dynamic Time Waning) 알고리즘을 사용하였으며, 지문 인식 알고리즘으로는 계산량을 고려하여 인공지능 기법인 KSOM(Kohonen Self-Organizing feature Map) 알고리즘을 적용하였다. 본 논문에서 구현한 다중생체 인식시스템을 실험한 결과 지문과 음성을 각각 이용한 단일인식시스템보다 본인거부율은 $2\~7\%$정도 떨어졌지만, 인식시스템에서 가장 중요한 요소인 타인수락율은 전혀 발생하지 않음을 확인하였다. 아울러 인식테스트 시간 또한 기존의 단일 생체 인식 시스템과 차이가 거의 없었으며, 인식에 걸린 시간은 평균 1.5초 정도였다. 이에 구현된 다중 생체 인의 시스템은 여러 가지 실험 결과 단일 인식 시스템보다 더 효율적인 보안 시스템임을 증명하였다.

좌표계산을 통해 동영상의 안면 특징점 분석을 중심으로 한 웹 기반 발표 태도 교정 프로그램 개발 (Development of a Web-based Presentation Attitude Correction Program Centered on Analyzing Facial Features of Videos through Coordinate Calculation)

  • 권기현;안수호;박찬정
    • 한국콘텐츠학회논문지
    • /
    • 제22권2호
    • /
    • pp.10-21
    • /
    • 2022
  • 학생들의 취업을 위한 면접 발표와 회사에서의 프로젝트 결과 발표 등과 같은 형식적인 발표 태도가 개선되려면 동료나 교수자의 관찰에 의한 방법 이외에 자동화된 방법은 드물다. 기존 연구에 따르면, 발표자의 안정적인 발화와 시선 처리가 발표에서의 전달력에 영향을 미친다고 한다. 또한, 본인 발표에 대한 적절한 피드백이 발표자의 발표 역량을 늘이는 효과가 있다는 연구도 있다. 본 연구에서는 이와 같은 교정의 긍정적 측면을 고려하여 대학생들의 잘못된 발표 습관과 태도를 동영상의 안면 분석을 통해 지능적으로 교정해 주는 프로그램을 개발하고 성능을 분석하였다. 개발하는 프로그램은 웹 기반으로 군말 사용 여부를 확인하고 안면 인식과 발표 내용 텍스트화를 통해 개발되었다. 이를 위해 군말 분류 인공지능 모델을 개발하였고, 동영상 객체 추출 후, 좌표에 기반으로 얼굴 특징점을 인식하였다. 이후 4,000개 안면 데이터를 이용해 Teachable Machine에서 안면 인식한 경우와 본 연구의 알고리즘 성능을 비교·분석하였다. 프로그램을 이용해 발표 태도를 자기스스로 교정하여 발표자들에게 도움을 준다.

CNN 기반 스펙트로그램을 이용한 자유발화 음성감정인식 (Spontaneous Speech Emotion Recognition Based On Spectrogram With Convolutional Neural Network)

  • 손귀영;권순일
    • 정보처리학회 논문지
    • /
    • 제13권6호
    • /
    • pp.284-290
    • /
    • 2024
  • 음성감정인식(Speech Emotion Recognition, SER)은 사용자의 목소리에서 나타나는 떨림, 어조, 크기 등의 음성 패턴 분석을 통하여 감정 상태를 판단하는 기술이다. 하지만, 기존의 음성 감정인식 연구는 구현된 시나리오를 이용하여 제한된 환경 내에서 숙련된 연기자를 대상으로 기록된 음성인 구현발화를 중심의 연구로 그 결과 또한 높은 성능을 얻을 수 있지만, 이에 반해 자유발화 감정인식은 일상생활에서 통제되지 않는 환경에서 이루어지기 때문에 기존 구현발화보다 현저히 낮은 성능을 보여주고 있다. 본 논문에서는 일상적 자유발화 음성을 활용하여 감정인식을 진행하고, 그 성능을 향상하고자 한다. 성능평가를 위하여 AI Hub에서 제공되는 한국인 자유발화 대화 음성데이터를 사용하였으며, 딥러닝 학습을 위하여 1차원의 음성신호를 시간-주파수가 포함된 2차원의 스펙트로그램(Spectrogram)로 이미지 변환을 진행하였다. 생성된 이미지는 CNN기반 전이학습 신경망 모델인 VGG (Visual Geometry Group) 로 학습하였고, 그 결과 7개 감정(기쁨, 사랑스러움, 화남, 두려움, 슬픔, 중립, 놀람)에 대해서 성인 83.5%, 청소년 73.0%의 감정인식 성능을 확인하였다. 본 연구를 통하여, 기존의 구현발화기반 감정인식 성능과 비교하면, 낮은 성능이지만, 자유발화 감정표현에 대한 정량화할 수 있는 음성적 특징을 규정하기 어려움에도 불구하고, 일상생활에서 이루어진 대화를 기반으로 감정인식을 진행한 점에서 의의를 두고자 한다.