• Title/Summary/Keyword: 인간기계인터페이스

Search Result 80, Processing Time 0.029 seconds

A Survey Study on the Utilization Status and User Perception of the VUI of Smartphones (스마트폰 음성 인터페이스의 사용 현황 및 사용자 인식에 대한 조사 연구)

  • Choe, Jaeho;Kim, Hoontae
    • The Journal of Society for e-Business Studies
    • /
    • v.21 no.4
    • /
    • pp.29-40
    • /
    • 2016
  • Voice User Interface (VUI) is the most familiar and comfortable interface to human. Recently, with the development of cloud and AI technologies VUI has been applied to various products. The aim of this study was to identify the problems of the current VUI and to find the direction of future study by investigating the utilization status and user perception of the VUI of smartphones. A survey was conducted with 163 college students using Google Forms. The results showed that the level of recognition of VUI is high but the rate of usage is very low, and many users feel uncomfortable about the voice recognition rate, reaction speed and operation method. Most of the survey participants tried VUI out of curiosity, but only a small portion of them found it useful to continue to use it. Many participants disliked talking to machines and also did not want others to listen. The study results will guide future research efforts for improving the utilization of VUI.

Development of Human-machine Interface based on EMG and EOG (근전도와 안전도 기반의 인간-기계 인터페이스기술)

  • Gang, Gyeong Woo;Kim, Tae Seon
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.12
    • /
    • pp.129-137
    • /
    • 2013
  • As the usage of computer based systems continues to increase in our normal life, there are constant efforts to enhance the accessibility of information for handicapped people. For this, it is essential to develop new interface ways for physical disabled peoples by means of human-computer interface (HCI) or human-machine interface (HMI). In this paper, we developed HMI using electromyogram (EMG) and electrooculogram (EOG) for people with physical disabilities. Developed system is composed of two modules, hardware module for signal sensing and software module for feature extraction and pattern classification. To maximize ease of use, only two skin contact electrodes are attached on both ends of brow, and EOG and EMG are measured simultaneously through these two electrodes. From measured signal, nine kinds of command patterns are extracted and defined using signal processing and pattern classification method. Through Java based real-time monitoring program, developed system showed 92.52% of command recognition rate. In addition, to show the capability of the developed system on real applications, five different types of commands are used to control ER1 robot. The results show that developed system can be applied to disabled person with quadriplegia as a novel interface way.

User Adaptation Using User Model in Intelligent Image Retrieval System (지능형 화상 검색 시스템에서의 사용자 모델을 이용한 사용자 적응)

  • Kim, Yong-Hwan;Rhee, Phill-Kyu
    • The Transactions of the Korea Information Processing Society
    • /
    • v.6 no.12
    • /
    • pp.3559-3568
    • /
    • 1999
  • The information overload with many information resources is an inevitable problem in modern electronic life. It is more difficult to search some information with user's information needs from an uncontrolled flood of many digital information resources, such as the internet which has been rapidly increased. So, many information retrieval systems have been researched and appeared. In text retrieval systems, they have met with user's information needs. While, in image retrieval systems, they have not properly dealt with user's information needs. In this paper, for resolving this problem, we proposed the intelligent user interface for image retrieval. It is based on HCOS(Human-Computer Symmetry) model which is a layed interaction model between a human and computer. Its' methodology is employed to reduce user's information overhead and semantic gap between user and systems. It is implemented with machine learning algorithms, decision tree and backpropagation neural network, for user adaptation capabilities of intelligent image retrieval system(IIRS).

  • PDF

An improved information input algorithm and information input device using Tactile devices based on wearable PC (착용형 컴퓨터기반의 촉각 장치를 활용한 효율적인 정보 입력장치 및 개선된 입력 알고리즘)

  • Shin, Jeong-Hoon;Hong, Kwang-Seok
    • Journal of Internet Computing and Services
    • /
    • v.6 no.5
    • /
    • pp.73-83
    • /
    • 2005
  • This paper proposes both a novel tactile human-computer interface method and an improved algorithm for the wearable PC. Under the condition of Ubiquitous computing, the next generation PC aims at effective representation and integration of colors, brightness of light. sound, odor, taste and feelings. Also, it aims at human being centered man-machine interface. In spite of various functions of the wearable PC, for the convenience of possessing, hardware platform for the wearable PC should be small-sized and light weighted one. The main problems of making small sized PC are user interfaces, like keyboard, monitor and so on. The traditional user interfaces have critical limitations for reducing their size. In this paper, we propose a novel user input method and improved algorithm to constructing small sized, light weighted and wearable PC. And, we verify the effectiveness of suggested method and algorithm compared to the traditional algorithm.

  • PDF

Recent Research Trend in Soft Tactile Sensor for Electronic Skin (전자피부(E-Skin)용 유연 촉각센서 연구동향)

  • Jee, Eunsong;Kim, Joo Sung;Kim, Do Hwan
    • Prospectives of Industrial Chemistry
    • /
    • v.21 no.1
    • /
    • pp.3-18
    • /
    • 2018
  • 전자피부(Electronic skin)는 외부 환경과의 상호작용하는 인간 피부의 기능을 대체하여 외부 자극 신호를 전기적 신호로 변환하는 센서들로 이루어진 인공피부로써, 최근 인간과 전자기기 간의 인터페이스에 대한 관심이 급증하면서 이에 대한 많은 연구들이 진행되고 있다. 그중에서도 피부의 주된 기능인 외부 물리적 자극을 인지하는 촉각을 모방하는 촉각센서는 많은 발전을 거쳐 왔으며, 한계를 극복하고자 다양한 연구들이 진행되고 있다. 촉각센서는 압력, 인장, 굽힘과 같은 물리적 자극에 반응하며, 물리적 자극 신호를 아날로그 및 디지털 신호로 변환하여 인지하는 연구들이 폭넓게 개발되고 있다. 또한, 소자의 구조에 따라 물리적 자극을 전달하는 다양한 변환 방식들이 있으며, 최근에는 각 신호 변환 방식의 민감도, 반응속도, 자극 인지 범위 등의 한계점을 극복하고, 소재의 기계적 물성을 향상시키기 위해 소재의 변형을 주거나 생체의 기관 구조 및 외부 자극 인지 원리 등을 모사한 연구들이 많은 관심을 받고 있다. 본 기고에서는 이러한 촉각센서의 물리적 자극 신호 변환 방식과 소재 변형 및 생체 모사를 통한 다양한 연구들을 소개하고자 하며, 이를 통하여 촉각센서의 나아갈 방향을 제시하고자 한다.

Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features (이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템)

  • Jungwoo Lim;Yoonna Jang;Junyoung Son;Seungyoon Lee;Kinam Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

Animation and Machines: designing expressive robot-human interactions (애니메이션과 기계: 감정 표현 로봇과 인간과의 상호작용 연구)

  • Schlittler, Joao Paulo Amaral
    • Cartoon and Animation Studies
    • /
    • s.49
    • /
    • pp.677-696
    • /
    • 2017
  • Cartoons and consequently animation are an effective way of visualizing futuristic scenarios. Here we look at how animation is becoming ubiquitous and an integral part of this future today: the cybernetic and mediated society that we are being transformed into. Animation therefore becomes a form of speech between humans and this networked reality, either as an interface or as representation that gives temporal form to objects. Animation or specifically animated films usually are associated with character based short and feature films, fiction or nonfiction. However animation is not constricted to traditional cinematic formats and language, the same way that design and communication have become treated as separate fields, however according to $Vil{\acute{e}}m$ Flusser they aren't. The same premise can be applied to animation in a networked culture: Animation has become an intrinsic to design processes and products - as in motion graphics, interface design and three-dimensional visualization. Video-games, virtual reality, map based apps and social networks constitute layers of an expanded universe that embodies our network based culture. They are products of design and media disciplines that are increasingly relying on animation as a universal language suited to multi-cultural interactions carried in digital ambients. In this sense animation becomes a discourse, the same way as Roland Barthes describes myth as a type of speech. With the objective of exploring the role of animation as a design tool, the proposed research intends to develop transmedia creative visual strategies using animation both as narrative and as an user interface.

An EEG Classifier Representing Subject's Characteristics for Brain-Computer Interface (뇌-컴퓨터 인터페이스를 위한 개인의 특성을 반영하는 뇌파 분류기)

  • Kim, Do-Yeon;Lee, Kwang-Hyung;Hwang, Min-Cheol
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.1
    • /
    • pp.24-32
    • /
    • 2000
  • BCI(Brain-Computer Interface) is studied to control the machines with brain. In this study, an EEG(Electroencephalography) signal classification model is proposed. The model gets EEG pattern from each subject's brain and extracts characteristic features. The model discriminates the EEG patterns by using those extracted characteristic features of each subject. The proposed method classifies each pair of the given tasks and combines the results to give the final result. Four tasks such as rest, movement, mental-arithmetic calculation and point-fixing were used in the experiment. Over 90% of the trials, the model yielded successful results. The model exploits characteristic features of the subjects and the weight table that was produced after training. The analysis results of the model such as its high success rates and short processing time show that it can be used in a real-time brain-computer interface system.

  • PDF

An Emotion Recognition Technique Using Speech Signals (음성신호를 이용한 감정인식)

  • Jeong, Byeong-Uk;Cheon, Seong-Pyo;Kim, Yeon-Tae;Kim, Seong-Sin
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.123-126
    • /
    • 2007
  • 본 논문은 음성신호를 이용한 감정인식에 관한 연구이다. 감정인식에 관한 연구는 휴먼 인터페이스(Human Interface) 기술의 발전에서 인간과 기계의 상호작용을 위한 것이다. 본 연구에서는 음성신호를 이용하여 감정을 분석하고자 한다. 음성신호의 감정인식을 위해서 음성신호의 특정을 추출하여야한다. 본 논문에서는 개인에 따른 음성신호의 감정인식을 하고자하였다. 그래서 화자인식에 많이 사용되는 음성신호 분석기법인 Perceptual Linear Prediction(PLP) 분석을 이용하여 음성신호의 특정을 추출하였다. 본 연구에서는 PLP 분석을 통하여 개인화된 감정 패턴을 생성하여 간단하면서도 실시간으로 음성신호로부터 감정을 평가 할 수 있는 알고리즘을 만들었다.

  • PDF

LabVIEW using PC-based three dimensional machine vision-based inspection system research and development of the PCB substrate (LabVIEW를 이용한 PC 기반의 머신 비전 PCB기판 부품 검사 3차원 시스템 연구)

  • Sin, Dong-Min;HwangBo, Seong
    • Proceedings of the KIEE Conference
    • /
    • 2009.07a
    • /
    • pp.1739_1740
    • /
    • 2009
  • 인간의 몸의 값이 1000냥이라고 하면 그중의 눈의 값은 900냥이라는 말이 있다. 그만큼 눈이 차지하는 즉 시각이 차지하는 비중이 매우 크다고 할 수가 있겠다. 또한 하등동물보다 고등동물로 진화해갈수록 시각의 활용도가 높아지는 것과 같이 각종 기계에 있어서도 자동화가 진전될수록 머신비전(Machine Vision)기술의 의존도 또한 높아지게 되었다. 따라서 산업이 발전함에 따라 머신 비전의 기술은 여러 분야에 걸쳐 요구되고, 연구가 활발히 진행되고 있다. 하지만 기존의 패키지 형식의 머신 비전 시스템은 산업 현장에 적용하는데 가격이 비싸고, 인터페이스 문제, 환경이나 필요조건 및 요구에 의한 시스템의 대처능력이 떨어지는 문제 등을 가지고 있다. 이러한 문제를 해결하기 위한 PC 기반의 머신비젼 시스템에 관한 연구가 필수적일 수 있다. 이러한 점을 궁극적인 목표로 설정하고 본 연구는 산업현장에 적용할 수 있는 머신 비전 시스템의 최적화 설계 에 대한 기술을 연구하였다.

  • PDF