조작 방식에 따른 음성과 소리 피드백의 할당 방법 가전제품과의 상호작용을 중심으로

An Arrangement Method of Voice and Sound Feedback According to the Operation : For Interaction of Domestic Appliance

  • 홍은지 (연세대학교 정보대학원 UX/콘텐츠) ;
  • 황해정 (연세대학교 정보대학원 UX/콘텐츠) ;
  • 강연아 (연세대학교 테크노아트 학부)
  • 투고 : 2016.05.31
  • 심사 : 2016.08.12
  • 발행 : 2016.08.31

초록

가전제품과 사용자와의 상호작용 방식이 다양해지고 있다. 사용자는 리모컨, 터치스크린 등으로 기기를 제어할 수 있고, 기기 역시 사운드, 음성, 시각적 신호 등 다양한 방식으로 사용자에게 피드백을 줄 수 있게 되었다. 그러나 사용자의 조작 방식에 따른 피드백 방식을 배정하는 원칙이나 기준이 없어 각 브랜드, 기기 별로 임의로 배정되어 있는 상황이다. 본 연구에서는 사용자가 가전제품을 음성 명령을 통해 조작할 때와 버튼으로 조작할 때 가전제품에서 주어지는 피드백의 방식으로 음성, 소리 중 어떤 방식이 적절한지 실험을 통해 알아보았다. 본 연구에서는 조작 방식(음성 인식, 버튼), 피드백 방식(음성 안내, 소리)의 조합으로 구성 된 총 4가지($2{\times}2$) 셀을 갖는 요인 설계 실험을 진행하였고, 조작 방식과 피드백 방식의 조합에 따라 피 실험자가 느끼는 사용성, 만족도, 선호도, 적합도가 달라지는지 살펴보았다. 그 결과 가전제품을 음성 인식으로 조작 하는 것이 사용 용이성, 조작 만족도가 높았다. 하지만 버튼으로 조작 했을 때는 피드백 방식의 종류에 따라 사용 용이성, 조작 만족도가 달라지는 것으로 나타나, 조작 방식과 피드백 방식의 상호작용 효과가 검정되었다. 조작 방식, 피드백 방식의 조합이 가전에 적절한지에 대해서는 피드백 방식의 주효과가 검정되었다. 결론적으로 음성 인식으로 조작 할 때는 피드백이 소리(earcons)로 제시되는 것이 만족도가 높았으나 이는 통계적으로 검정 되는 정도는 아니었으며, 버튼을 조작 할 때는 피드백이 음성 안내로 제시되는 것이 만족도가 높았으며 이는 통계적으로 검정 되었다. 또한 가전에 어떠한 조작 방법이나 피드백 방법이 적절한지에 대해서는 피드백 방법이 주로 영향을 미치는 것으로 나타났다.

The ways to interact with digital appliances are becoming more diverse. Users can control appliances using a remote control and a touch-screen, and appliances can send users feedback through various ways such as sound, voice, and visual signals. However, there is little research on how to define which output method to use for providing feedback according to the user' input method. In this study, we designed an experimental study that seeks to identify how to appropriately match the output method - voice and sound - based on the user input - voice and button. We made four types of interaction with two kinds input methods and two kinds of output methods. For the four interaction types, we compared the usability, perceived satisfaction, preference and suitability. Results reveals that the output method affects the ease of use and perceived satisfaction of the input method. The voice input method with sound feedback was evaluated more satisfying than with the voice feedback. However, the keying input method with voice feedback was evaluated more satisfying than with sound feedback. The keying input method was more dependent on the output method than the voice input method. We also found that the feedback method of appliances determines the perceived appropriateness of the interaction.

키워드

참고문헌

  1. IFA. Trends in home appliance at IFA 2015. http://b2b.ifa-berlin.com/Press/PressReleases/News_9409.html 2015.10.31.
  2. Ron, V. B. and LaLomia, M. A comparison of speech and mouse/keyboard GUI navigation. In Conference Companion on Human Factors in Computing Systems. ACM. pp. 96. 1995.
  3. Damper, R. I., Tranchant, M. A. and Lewis, S. M. Speech versus keying in command and control: Effect of concurrent tasking. International Journal of Human-Computer Studies. 45(3), pp. 337-348. 1996. https://doi.org/10.1006/ijhc.1996.0055
  4. William, W. G. Auditory icons: Using sound in computer interfaces. Human-computer interaction 2(2) pp. 167-177. 1986. https://doi.org/10.1207/s15327051hci0202_3
  5. Elizabeth D. M. Designing with auditory icons: how well do we identify auditory cues?. In Conference companion on Human factors in computing systems. New York, pp. 269-270. 1994.
  6. Noulhiane, M., Mella, N., Samson, S., Ragot, R. and Pouthas, V. How emotional auditory stimuli modulate time perception. Emotion. the American Psychological Association. 7(4). pp.697-704. 2007.
  7. Belz, S. M., Robinson, G. S. and Casali, J. G. A new class of auditory warning signals for complex systems: Auditory icons. Human Factors: The Journal of the Human Factors and Ergonomics Society. 41(4). pp. 608-618. 1999. https://doi.org/10.1518/001872099779656734
  8. Vilimek, R. and Hempel, T. Effects of speech and non-speech sounds on short-term memory and possible implications for in-vehicle use. Proceedings of ICAD 05-Eleventh Meeting of the International Conference on Auditory Display. International Community for Auditory Display. 2005
  9. 채행석, 홍지영, 이주환, 전명훈, 김민선, 허우범, 한광희. 가전제품의 VUI 가이드라인에 대한 연구. 한국 HCI 학회 학술대회 논문집. 한국HCI학회. pp. 1265-1272. 2007.
  10. 한국컨텐츠진흥원. 문화기술심층리포트: 음성 인식 기술의 동향과 전망. http://www.kocca.kr/knowledge/pubication/ct/__icsFiles/afieldfile/2011/12/07/87NEmyIcVWMc.pdf. 2016.4.27
  11. Furui, S. Prospects for Spoken Dialogue Systems in a Multimedia Enviroment. In ESCA Workshop. ESCA Workshop. pp. 9-16. 1995
  12. 이혜민, 김승인. 음성인식 기반의 모바일 지능형 개인비서 서비스 사용성 비교. 디지털디자인학연구, 14(1), pp. 231-240. 2014
  13. Shneiderman, B. The limits of speech recognition. Communications of the ACM, 43(9), pp. 63-65. 2000.
  14. Huang, X., Baker, J. and Reddy, R. A Historical Perspective of Speech Recognition. Communications of the ACM. 57(1). pp. 94-103. 2014. https://doi.org/10.1145/2500887
  15. Damper, R. I. and Wood, S. D. Speech versus keying in command and control applications. International Journal of Human-Computer Studies. 42(3). pp. 289-305. 1995. https://doi.org/10.1006/ijhc.1995.1014
  16. 조성일, 홍사윤, 홍지영, 양경인, 장구앙, 최진해. Operation Command에 따른 스마트 TV 입력방식 연구. 한국 HCI 학회 학술대회 논문집. 한국 HCI 학회. pp. 631-634. 2012.
  17. Karl, L. R., Pettey, M. and Shneiderman, B. Speech versus mouse commands for word processing: an empirical evaluation. International Journal of Man-Machine Studies, 39(4), pp. 667-687. 1993. https://doi.org/10.1006/imms.1993.1078
  18. 양경인, 홍사윤, 홍지영, 조성일, 장구앙, 최진해. 입력기기에 따른 자연적 인터랙션방식 연구. 한국 HCI 학술대회 논문집. 한국 HCI 학회. pp.643-647. 2012
  19. Garzonis, S., Jones, S., Jay, T. and O'Neill, E. Auditory icon and earcon mobile service notifications: intuitiveness, learnability, memorability and preference. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM. 2009.
  20. Meera, M. B., Denise, A. S. and Robert, M. G. Earcons and icons: Their structure and common design principles. Human-Computer Interaction 4(1) pp. 11-44. 1989 https://doi.org/10.1207/s15327051hci0401_1
  21. Stephen, A. B., Peter C. W. and Alistair, D. N. E. An evaluation of earcons for use in auditory human-computer interfaces. In Proceedings of the INTERACT'93 and CHI'93 conference on Human factors in computing systems. ACM. 1993.
  22. Dingler, T., Lindsay, J. and Walker, B. N. Learnabiltiy of sound cues for environmental features: Auditory icons, earcons, spearcons, and speech. In Proceedings of the 14th International Conference on Auditory Display. pp. 1-6. 2008.
  23. 홍지영, 채행석, 이승룡, 박영현, 김준희, 류형수, 김종환, 한광희. 음성과 소리의 할당 방법: 가전제품 UI 를 중심으로. 한국 HCI 학회 학술대회 논문집. 한국 HCI 학회. pp. 1558-1563. 2007.
  24. Alan, D. Human-computer interaction. US: Springer. 2009.