• 제목/요약/키워드: 음성영상융합

검색결과 84건 처리시간 0.027초

텔레프리젠스 로봇보조학습 사례 연구를 통한 융합기술 (Convergence Technologies by a Long-term Case Study on Telepresence Robot-assisted Learning)

  • 임미숙;한정혜
    • 융합정보논문지
    • /
    • 제9권7호
    • /
    • pp.106-113
    • /
    • 2019
  • 이 논문은 개인 대상으로 장기간의 원격영상 교육을 실시한 사례를 분석함으로써, 효과적인 운영을 위한 융합기술에 대한 제언을 도출하는 것을 목적으로 한다. 로봇보조학습을 포함한 원격영상교육 경험이 있는 교수학습자를 대상으로 텔레프리젠스를 노트북, 스마트폰 로봇, 그리고 음성인식 피드백이 제공되도록 제작한 패드형 로봇으로 실험 설계하여 5개월간 원격수업 방식에 임의할당을 통해 진행하고, 과제 수행도를 측정함과 동시에 심층 인터뷰를 실시하였다. 학습자는 기존 연구와 마찬가지로 텔레프리젠스 로봇보조학습의 과제수행도가 가장 높은 것으로 나타났지만, 학습의 몰입도와 집중을 위하여 음성송출 피드백 외에 원격교수자와의 시선 맞춤이 필요하다고 생각했다. 원격 교수자는 원격교육의 영상입력 추가와 음원추적 자동 제어 기능을 요구했다.

광대역통합망(BcN) 구축정책

  • 서석진
    • 정보와 통신
    • /
    • 제21권8호
    • /
    • pp.13-28
    • /
    • 2004
  • 최근 정보통신환경은 통신ㆍ방송 인터넷이 대통합되는 디지털융합(Digital Convergence) 서비스 제공 형태로 급속히 진행되고 있다. 디지털기술의 발전으로 음성 데이터 영상 멀티미디어 등 모든 형태의 정보를 디지털화 할 수 있으며, 컴퓨터의 소형화ㆍ다기능화, 컴퓨팅 파워의 증대로 저비용ㆍ대용량의 정보처리가 가능하게 되었다. 그리고 네트워크 기능과 성능의 획기적 발전으로 네트워크 적용범위가 가전, 자동차, 영상, 콘텐츠, 센서 등 거의 모든 영역으로 확대되고 있다.(중략)

AI 아나운서 : 인공지능 기술을 이용한 정보 전달 소프트웨어 (AI Announcer : Information Transfer Software Using Artificial Intelligence Technology)

  • 김혜원;이영은;이홍창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 추계학술발표대회
    • /
    • pp.937-940
    • /
    • 2020
  • 본 논문은 AI 기술을 기반으로 텍스트 스크립트를 자동으로 인식하고 영상 합성 기술을 응용하여 텍스트 정보를 시각화하는 AI 아나운서 소프트웨어 연구에 대하여 기술한다. 기존의 AI 기반 영상 정보 전달 서비스인 AI 앵커는 텍스트를 인식하여 영상을 합성하는데 오랜 시간이 필요하였으며, 특정 인물 이미지로만 영상 합성이 가능했기 때문에 그 용도가 제한적이었다. 본 연구에서 제안하는 방법은 Tacotron 으로 새로운 음성을 학습 및 합성하여, LRW 데이터셋으로 학습된 모델을 사용하여 자연스러운 영상 합성 체계를 구축한다. 단순한 얼굴 이미지의 합성을 개선하고 다채로운 이미지 제작을 위한 과정을 간략화하여 다양한 비대면 영상 정보 제공 환경을 구성할 수 있을 것으로 기대된다.

문맥정보를 이용한 이중모드 음성인식 (Blmodal Speech Recognition Using Contextual Feature)

  • 류정우;김은주;김명원
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 봄 학술발표논문집 Vol.31 No.1 (B)
    • /
    • pp.631-633
    • /
    • 2004
  • 최근 잡음환경에서 신뢰도 높은 음성인식을 위해 음성정보와 영상정보를 융합하는 이중모드 음성인식 방법이 활발히 연구되고 일다. 본 논문에서는 보다 음성 인식률을 향상시키기 위해 사용자가 말한 단어들의 순차 패턴을 나타내는 문맥정보를 이용한 후처리 방법을 제안한다. 이러한 문맥정보를 인식하기 위해 다층퍼셉트론 구조를 갖는 문맥정보 인식기를 제안한다 이중모드 음성인식기와 문맥정보 인식기 결과를 효율적으로 결합하기 위한 후처리 방법으로 순차 결합방법을 제안한다. 문맥정보를 이용한 이중모드 음성인식이 잡음 환경에서 90%이상의 인식률을 보였다 본 논문은 잡음환경에서 강인한 음성인식을 위해 문맥정보와 같은 사용자 행동패턴이 새로운 정보로 이용될 수 있다는 가능성을 제시한다.

  • PDF

영상처리 기반의 운전자 중심 정보처리 기술 개발 (A Driving Information Centric Information Processing Technology Development Based on Image Processing)

  • 양승훈;홍광수;김병규
    • 융합보안논문지
    • /
    • 제12권6호
    • /
    • pp.31-37
    • /
    • 2012
  • 오늘날 자동차 기술의 핵심은 IT 기반 융합 시스템기술로 변화하고 있다. 다양한 IT 기술을 접목하여 운전 중 다양한 상황에 대응하고 또한 운전자의 편의성을 지원하는 기술적 추세를 보이고 있다. 본 논문에서는 운전자의 안전성과 편의성을 증대하기 위해 영상 정보를 기반으로 도로 정보를 검출해 운전자에게 알려주고, 버튼을 직접 손으로 눌러야 하는 물리적 인터페이스를 대체할 비접촉식 인터페이스 기술을 융합한 Augmented Driving System (ADS) 기술을 제안한다. 본 기술은 카메라로부터 입력 받은 영상 정보를 제안된 알고리즘을 통해 앞차와의 거리, 차선, 교통 표지판을 검출하고 차량 내부를 주시하는 카메라와 운전자의 음성을 인식할 마이크를 기반으로 기본 음성인식과 동작인식이 융합된 인터페이스 기술을 제공한다. 이러한 요소 기술들은 운전자가 인지하지 못하더라도 운전자에게 현재의 주행상황을 인지하여 자동으로 알려줌으로써 교통사고 확률을 크게 낮출 수 있을 것이며, 또한 다양한 운전 중 기능 조작을 편리하게 지원함으로써 운전자의 전방 주시에 도움을 줄 수 있다. 본 논문에서 개발된 기술을 통해 테스트를 실시해 본 결과 표지판인식, 차선검출, 앞차와의 거리 검출 등의 인식률이 약 90% 이상이 되었다.

영상, 음성, 활동, 먼지 센서를 융합한 딥러닝 기반 사용자 이상 징후 탐지 알고리즘 (Deep Learning-Based User Emergency Event Detection Algorithms Fusing Vision, Audio, Activity and Dust Sensors)

  • 정주호;이도현;김성수;안준호
    • 인터넷정보학회논문지
    • /
    • 제21권5호
    • /
    • pp.109-118
    • /
    • 2020
  • 최근 다양한 질병 때문에 사람들은 집 안에서 많은 시간을 보내고 있다. 집 안에서 다치거나 질병에 감염되어 타인의 도움이 필요한 1인 가구의 경우 타인에게 도움을 요청하기 어렵다. 본 연구에서는 1인 가구가 집 안에서 부상이나 질병 감염 등 타인의 도움이 필요로 하는 상황인 이상 징후를 탐지하기 위한 알고리즘을 제안한다. 홈 CCTV를 이용한 영상 패턴 탐지 알고리즘과 인공지능 스피커 등을 이용한 음성 패턴 탐지 알고리즘, 스마트폰의 가속도 센서를 이용한 활동 패턴 탐지 알고리즘, 공기청정기 등을 이용한 먼지 패턴 탐지 알고리즘을 제안한다. 하지만, 홈 CCTV의 보안 문제로 사용하기 어려울 경우 음성, 활동, 먼지 패턴 센서를 결합한 융합 방식을 제안한다. 각 알고리즘은 유튜브와 실험을 통해 데이터를 수집하여 정확도를 측정했다.

음성 신호와 얼굴 표정을 이용한 감정인식 몇 표현 기법 (An Emotion Recognition and Expression Method using Facial Image and Speech Signal)

  • 주종태;문병현;서상욱;장인훈;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.333-336
    • /
    • 2007
  • 본 논문에서는 감정인식 분야에서 가장 많이 사용되어지는 음성신호와 얼굴영상을 가지고 4개의(기쁨, 슬픔, 화남, 놀람) 감정으로 인식하고 각각 얻어진 감정인식 결과를 Multi modal 기법을 이용해서 이들의 감정을 융합한다. 이를 위해 얼굴영상을 이용한 감정인식에서는 주성분 분석(Principal Component Analysis)법을 이용해 특징벡터를 추출하고, 음성신호는 언어적 특성을 배재한 acoustic feature를 사용하였으며 이와 같이 추출된 특징들을 각각 신경망에 적용시켜 감정별로 패턴을 분류하였고, 인식된 결과는 감정표현 시스템에 작용하여 감정을 표현하였다.

  • PDF

대화를 중심으로 다양한 멀티모달 융합정보를 포함하는 동영상 기반 인공지능 학습용 데이터셋 구축 (Dialogue based multimodal dataset including various labels for machine learning research)

  • 신사임;장진예;김보은;박한무;정혜동
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.449-453
    • /
    • 2019
  • 미디어방송이 다양해지고, 웹에서 소비되는 콘텐츠들 또한 멀티미디어 중심으로 재편되는 경향에 힘입어 인공지능 연구에 멀티미디어 콘텐츠를 적극적으로 활용하고자 하는 시도들이 시작되고 있다. 본 논문은 다양한 형태의 멀티모달 정보를 하나의 동영상 콘텐츠에 연계하여 분석하여, 통합된 형태의 융합정보 데이터셋을 구축한 연구를 소개하고자 한다. 구축한 인공지능 학습용 데이터셋은 영상/음성/언어 정보가 함께 있는 멀티모달 콘텐츠에 상황/의도/감정 정보 추론에 필요한 다양한 의미정보를 부착하여 활용도가 높은 인공지능 영상 데이터셋을 구축하여 공개하였다. 본 연구의 결과물은 한국어 대화처리 연구에 부족한 공개 데이터 문제를 해소하는데 기여하였고, 한국어를 중심으로 다양한 상황 정보가 함께 구축된 데이터셋을 통하여 다양한 상황 분석 기반 대화 서비스 응용 기술 연구에 활용될 것으로 기대할 수 있다.

  • PDF

디지털시대의 도래와 국민생활

  • 한국과학기술단체총연합회
    • 과학과기술
    • /
    • 제32권11호통권366호
    • /
    • pp.43-75
    • /
    • 1999
  • 디지털시대가 활짝 열리고 있다. 디지털이 문자와 음성 그리고 영상을 지배함으로써 다양한 정보가 장소와 시간의 제약없이 눈깜짝할 사이에 옮겨다닌다. 그래서 TV와 PC가 융합, 홈쇼핑이 보편화되고 원격 진료와 강의시대가 열린다. 21C 디지털시대 우리의 생활은 어떻게 바뀌어 갈 것인지 알아 보았다.

  • PDF

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.