• 제목/요약/키워드: VUI(Voice User Interface)

검색결과 23건 처리시간 0.023초

스마트 스피커와 요리하기: 음성기반 레시피 제공 서비스의 사용자 경험 (Cooking with a smart speaker: User experience of cooking with a voice-only recipe service)

  • 정구민;정혜선
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제27권5호
    • /
    • pp.13-23
    • /
    • 2021
  • 음성 기반 컴퓨팅 기술과 서비스의 수준이 높아지면서, 이러한 음성 기반 기술을 활용할 분야도 넓어지고 있다. 그 중 스마트 스피커의 보급이 증가하면서 다양한 음성기반 서비스가 출시되고 있고, 1인 가구 및 요리 방송이 증가하면서 스마트 스피커를 사용한 레시피 서비스 제공이 시작되었다. 전통적으로 레시피 서비스는 시각적인 정보제시를 주로 사용하였으나, 사용자의 경험 증진을 위해서는 음성만으로도 동일한 정보를 적절하게 제공해야 한다. 스마트 스피커가 가진 장점은 '핸즈프리'가 가능하다는 것인데, 이는 요리 상황에서 효율적으로 쓰일 수 있으며, 시각을 사용하지 못하는 사용자에게 도움이 될 수 있다. 본 연구에서는 음성 기반 레시피 서비스가 사용자의 요리 활동을 얼마나 효과적으로 지원하는지 살펴보았다. 현장연구로 요리 숙련도별로 새로운 레시피를 조리하도록 하였고, 소리내어 생각하기(think-aloud), 관찰 및 인터뷰를 실시했다. 그 결과 음성 기반 레시피 서비스는 사용자의 손을 자유롭게 하여 조리 활동을 중단하지 않으면서 레시피를 확인할 수 있도록 하였으나, 조리지시가 한꺼번에 주어져서 사용자가 기억 부담을 하는 것이 관찰되었다. 시각적인 정보의 부재는 심각한 단점으로 작용하지는 않았으나, 조리의 효율성과 완성도에 영향을 주었다. 본 연구의 결과는 HCI의 발전과 음성을 사용한 레시피 서비스 사용자 경험 연구에 참고 될 수 있을 것으로 기대된다.

인공지능 에이전트 대화형 인터랙션에서의 감탄사 효과: 자율주행 맥락에서 (The Effect of Interjection in Conversational Interaction with the AI Agent: In the Context of Self-Driving Car)

  • 이수지;서지윤;최준호
    • 문화기술의 융합
    • /
    • 제8권1호
    • /
    • pp.551-563
    • /
    • 2022
  • 이 연구의 목적은 자율 주행 차량의 체화된 에이전트가 '감탄사'를 사용하여 감정 표현을 드러낸 대화 상호작용을 할 경우 사용자 경험에 어떠한 효과를 나타내는지 확인하는 것이다. 감탄사 포함 유무와 대화 유형(과제 중심적 대화 vs. 관계 중심적 대화)의 조건에 따라 실험을 설계하였다. 온라인 실험으로 각 조건별로 4가지 대화 시나리오영상을 시청한 후, 해당 에이전트에 대한 친밀도, 호감도, 신뢰도, 사회적 실재감, 지각된 의인화, 향후 이용 의도를 측정하였다. 분석 결과, 에이전트가 감탄사를 사용할 경우 두 대화 유형 모두에서 사회적 실재감의 주 효과가 나타났다. 에이전트가 감탄사를 사용하지 않을 경우 과제 중심적 대화 유형에서 신뢰와 향후 이용 의도가 높았다. 에이전트가 감탄사를 사용하여 감정적 표현을 더하는 것은 사회적 실재감을 높이는 효과는 발견했지만, 다른 사용자 경험 요인에 대한 영향은 나타나지 않았다.

Hi, KIA! 기계 학습을 이용한 기동어 기반 감성 분류 (Hi, KIA! Classifying Emotional States from Wake-up Words Using Machine Learning)

  • 김태수;김영우;김근형;김철민;전형석;석현정
    • 감성과학
    • /
    • 제24권1호
    • /
    • pp.91-104
    • /
    • 2021
  • 본 연구에서는 승용차에서 사람들이 기기를 사용하기 위해 사용하는 기동어인 "Hi, KIA!"의 감성을 기계학습을 기반으로 분류가 가능한가에 대해 탐색하였다. 감성 분류를 위해 신남, 화남, 절망, 보통 총 4가지 감정별로 3가지 시나리오를 작성하여, 자동차 운전 상황에서 발생할 수 있는 12가지의 사용자 감정 시나리오를 제작하였다. 시각화 자료를 기반으로 총 9명의 대학생을 대상으로 녹음을 진행하였다. 수집된 녹음 파일의 전체 문장에서 기동어 부분만 별도로 추출하는 과정을 거쳐, 전체 문장 파일, 기동어 파일 총 두 개의 데이터 세트로 정리되었다. 음성 분석에서는 음향 특성을 추출하고 추출된 데이터를 svmRadial 방법을 이용하여 기계 학습 기반의 알고리즘을 제작해, 제작된 알고리즘의 감정 예측 정확성 및 가능성을 파악하였다. 9명의 참여자와 4개의 감정 카테고리를 통틀어 기동어의 정확성(60.19%: 22~81%)과 전체 문장의 정확성(41.51%)을 비교했다. 또한, 참여자 개별로 정확도와 민감도를 확인하였을 때, 성능을 보임을 확인하였으며, 각 사용자 별 기계 학습을 위해 선정된 피쳐들이 유사함을 확인하였다. 본 연구는 기동어만으로도 사용자의 감정 추출과 보이스 인터페이스 개발 시 기동어 감정 파악 기술이 잠재적으로 적용 가능한데 대한 실험적 증거를 제공할 수 있을 것으로 기대한다.