• 제목/요약/키워드: User Recognition

검색결과 1,357건 처리시간 0.023초

웨이블릿 계수와 Dynamic Positional Warping을 통한 EOG기반의 사용자 독립적 시선인식 (EOG-based User-independent Gaze Recognition using Wavelet Coefficients and Dynamic Positional Warping)

  • 장원두;임창환
    • 한국멀티미디어학회논문지
    • /
    • 제21권9호
    • /
    • pp.1119-1130
    • /
    • 2018
  • Writing letters or patterns on a virtual space by moving a person's gaze is called "eye writing," which is a promising tool for various human-computer interface applications. This paper investigates the use of conventional eye writing recognition algorithms for the purpose of user-independent recognition of eye-written characters. Two algorithms are presented to build the user-independent system: eye-written region extraction using wavelet coefficients and template generation. The experimental results of the proposed system demonstrated that with dynamic positional warping, an F1 score of 79.61% was achieved for 12 eye-written patterns, thereby indicating the possibility of user-independent use of eye writing.

BLE 비콘 기반 전자 출결 시스템에서의 상황인지를 기반으로 한 사용자 인식 기법 (A User Recognition Method based on Context Awareness in BLE Beacon-based Electronic Attendance System)

  • 강승완;김영국
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.609-610
    • /
    • 2017
  • 최근 IoT를 향한 관심이 많아짐에 따라, IoT 기기와 스마트폰을 이용한 서비스가 다양한 산업에 적용되고 있다. 그 중에서 전자 출결 시스템은 여러 기관에서 구축하여 서비스 되고 있으나, 아직 사용자 인식이 정확하지 않다는 문제점이 있다. 본 논문은 기존의 전자 출결 시스템 중 BLE 비콘을 기반으로 한 시스템에서, 사용자 인식 부분의 정확도를 높일 수 있는 상황인지 기반의 사용자 인식방법을 제안한다.

  • PDF

스마트폰 가속도 센서를 이용한 강건한 사용자 행위 인지 방법 (Robust User Activity Recognition using Smartphone Accelerometer Sensors)

  • 전명중;박영택
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권9호
    • /
    • pp.629-642
    • /
    • 2013
  • 최근 몇 년 동안 스마트폰의 등장으로 현대인들의 생활에 많은 변화를 가져왔다. 특히 스마트폰의 센서 정보를 활용하여 사용자의 상황에 맞는 서비스를 제공해주는 응용프로그램들이 많이 등장하고 있다. 스마트폰의 센서 정보는 사용자의 습관이나 행동과 밀접하게 관련되어 있기 때문에 사용자의 상황을 인지하기에 좋은 데이터이다. 현재 모바일 센서 중 GPS 센서는 사용자의 기본적인 행위인지에 많이 활용되고 있다. 하지만 GPS 센서는 사용자의 상황에 따라 수신이 불가능할 수도 있으며 수신된 데이터 역시 부정확할 수 있기 때문에 활용도가 떨어진다. 본 연구에서는 이러한 문제점을 해결하기 위해 모바일 디바이스에 탑재된 가속도 센서 데이터를 중심으로 한 사용자 행위 인지 방법을 제안한다. 가속도 센서는 데이터 수신이 안정적이며, 사용자의 행위에 민감하게 반응하기 때문에 행위인지에 적합하다. 마지막으로 상태 전이도를 활용하여 합리적인 행위변화의 흐름을 적용함으로써 행위인지의 정확도를 높인다.

A Consecutive Motion and Situation Recognition Mechanism to Detect a Vulnerable Condition Based on Android Smartphone

  • Choi, Hoan-Suk;Lee, Gyu Myoung;Rhee, Woo-Seop
    • International Journal of Contents
    • /
    • 제16권3호
    • /
    • pp.1-17
    • /
    • 2020
  • Human motion recognition is essential for user-centric services such as surveillance-based security, elderly condition monitoring, exercise tracking, daily calories expend analysis, etc. It is typically based on the movement data analysis such as the acceleration and angular velocity of a target user. The existing motion recognition studies are only intended to measure the basic information (e.g., user's stride, number of steps, speed) or to recognize single motion (e.g., sitting, running, walking). Thus, a new mechanism is required to identify the transition of single motions for assessing a user's consecutive motion more accurately as well as recognizing the user's body and surrounding situations arising from the motion. Thus, in this paper, we collect the human movement data through Android smartphones in real time for five targeting single motions and propose a mechanism to recognize a consecutive motion including transitions among various motions and an occurred situation, with the state transition model to check if a vulnerable (life-threatening) condition, especially for the elderly, has occurred or not. Through implementation and experiments, we demonstrate that the proposed mechanism recognizes a consecutive motion and a user's situation accurately and quickly. As a result of the recognition experiment about mix sequence likened to daily motion, the proposed adoptive weighting method showed 4% (Holding time=15 sec), 88% (30 sec), 6.5% (60 sec) improvements compared to static method.

Conceptual Fuzzy Sets for Picture Reference System with Visual User Interface and Command Recognition System without Keyboard and Mouse

  • Saito, Maiji;Yamaguchi, Toru
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.138-141
    • /
    • 2003
  • This paper proposes conceptual fuzzy sets for picture reference system with visual user interface and command recognition system without keyboard and mouse. The picture reference system consists of the associative picture database, the visual user interface and command recognition system. The associative picture database searches pictures by using conceptual fuzzy sets. To show pictures attractive, the visual user interface provides some visual effect functions. The command recognition unit, without keyboard and mouse, captures user's hand by camera and informs it to the system as a command. We implement and evaluate the picture reference system.

  • PDF

사용자 손 제스처 인식 기반 입체 영상 제어 시스템 설계 및 구현 (Design and Implementation of a Stereoscopic Image Control System based on User Hand Gesture Recognition)

  • 송복득;이승환;최홍규;김성훈
    • 한국정보통신학회논문지
    • /
    • 제26권3호
    • /
    • pp.396-402
    • /
    • 2022
  • 영상 미디어를 위한 사용자 인터랙션은 다양한 형태로 개발되고 있으며, 특히, 인간의 제스처를 활용한 인터랙션이 활발히 연구되고 있다. 그 중에, 손 제스처 인식의 경우 3D Hand Model을 기반으로 실감 미디어 분야에서 휴먼 인터페이스로 활용되고 있다. 손 제스처 인식을 기반으로 한 인터페이스의 활용은 사용자가 미디어 매체에 보다 쉽고 편리하게 접근할 수 있도록 도와준다. 이러한 손 제스처 인식을 활용한 사용자 인터랙션은 컴퓨터 환경 제약 없이 빠르고 정확한 손 제스처 인식 기술을 적용하여 영상을 감상할 수 있어야 한다. 본 논문은 오픈 소스인 미디어 파이프 프레임워크와 머신러닝의 k-NN(K-Nearest Neighbor)을 활용하여 빠르고 정확한 사용자 손 제스처 인식 알고리즘을 제안한다. 그리고 컴퓨터 환경 제약을 최소화하기 위하여 인터넷 서비스가 가능한 웹 서비스 환경 및 가상 환경인 도커 컨테이너를 활용하여 사용자 손 제스처 인식 기반의 입체 영상 제어 시스템을 설계하고 구현한다.

얼굴과 음성 정보를 이용한 바이모달 사용자 인식 시스템 설계 및 구현 (Design and Implementation of a Bimodal User Recognition System using Face and Audio)

  • 김명훈;이지근;소인미;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권5호
    • /
    • pp.353-362
    • /
    • 2005
  • 최근 들어 바이모달 인식에 관한 연구가 활발히 진행되고 있다. 본 논문에서는 음성 정보와 얼굴정보를 이용하여 바이모달 시스템을 구현하였다. 얼굴인식은 얼굴 검출과 얼굴 인식 두 부분으로 나누어서 실험을 하였다. 얼굴 검출 단계에서는 AdaBoost를 이용하여 얼굴 후보 영역을 검출 한 뒤 PCA를 통해 특징 벡터 계수를 줄였다. PCA를 통해 추출된 특징 벡터를 객체 분류 기법인 SVM을 이용하여 얼굴을 검출 및 인식하였다. 음성인식은 MFCC를 이용하여 음성 특징 추출을 하였으며 HMM을 이용하여 음성인식을 하였다. 인식결과, 단일 인식을 사용하는 것보다 얼굴과 음성을 같이 사용하였을 때 인식률의 향상을 가져왔고, 잡음 환경에서는 더욱 높은 성능을 나타냈었다.

  • PDF

음성기반 멀티모달 사용자 인터페이스의 사용성 평가 방법론 (Usability Test Guidelines for Speech-Oriented Multimodal User Interface)

  • 홍기형
    • 대한음성학회지:말소리
    • /
    • 제67호
    • /
    • pp.103-120
    • /
    • 2008
  • Basic components for multimodal interface, such as speech recognition, speech synthesis, gesture recognition, and multimodal fusion, have their own technological limitations. For example, the accuracy of speech recognition decreases for large vocabulary and in noisy environments. In spite of those technological limitations, there are lots of applications in which speech-oriented multimodal user interfaces are very helpful to users. However, in order to expand application areas for speech-oriented multimodal interfaces, we have to develop the interfaces focused on usability. In this paper, we introduce usability and user-centered design methodology in general. There has been much work for evaluating spoken dialogue systems. We give a summary for PARADISE (PARAdigm for Dialogue System Evaluation) and PROMISE (PROcedure for Multimodal Interactive System Evaluation) that are the generalized evaluation frameworks for voice and multimodal user interfaces. Then, we present usability components for speech-oriented multimodal user interfaces and usability testing guidelines that can be used in a user-centered multimodal interface design process.

  • PDF

개선된 Google Activity Recognition을 이용한 상황인지 모델 (Context Awareness Model using the Improved Google Activity Recognition)

  • 백승은;박상원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권1호
    • /
    • pp.57-64
    • /
    • 2015
  • 사용자의 상황에 따라 유용한 정보를 제공할 수 있는 행위인식 기술은 최근 많은 주목을 받고 있다. 스마트폰이 보급되기 전 행위인식 연구에서는 독립된 센서를 사용하여 사용자의 행위를 추론해야 했지만, 현재는 IT산업의 발달로 스마트폰의 내부 센서를 사용해 사용자의 행위를 추론할 수 있게 되었다. 따라서 행위인식 분야의 연구가 더욱 활발히 진행되고 있다. 행위인식 기술을 응용하면 사용자의 선호도에 따라 애플리케이션을 추천하거나 경로 정보를 제공하는 서비스 등을 개발할 수 있다. 기존의 행위인식 시스템들은 GPS를 이용하기 때문에 전력을 많이 소모한다는 단점이 있다. 반면에 최근 Google에서 발표한 행위인식(Google Activity Recognition) 시스템은 Network Provider를 이용하기 때문에 GPS 방식에 비해 전력소모가 적어 휴대해야 하는 스마트폰 응용 시스템에 적합하다. 하지만 Google Activity Recognition의 성능을 테스트한 결과 불필요한 행위 항목과 일부 잘못된 상황인지로 인해 정확한 사용자 행위를 파악하기 어렵다는 것을 발견했다. 행위인식 기술을 기반으로 한 새로운 서비스 개발을 위해 더욱 정확한 상황인지가 필요하므로 본 논문에서는 GAR의 문제점을 기술하고 정확도를 높이는 개선 방법을 적용한 AGAR(Advanced Google Activity Recognition)을 제안한다. 또한 AGAR의 이용가치를 평가하기 위하여 다른 여러 행위인식 시스템과 성능과 전력소모량을 비교분석하고 AGAR을 검증하는 예시 프로그램을 개발하여 응용 가능성을 설명한다.

착용형 단말에서의 음성 인식과 제스처 인식을 융합한 멀티 모달 사용자 인터페이스 설계 (Design of Multimodal User Interface using Speech and Gesture Recognition for Wearable Watch Platform)

  • 성기은;박유진;강순주
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권6호
    • /
    • pp.418-423
    • /
    • 2015
  • 기술 발전에 따른 착용형 단말의 기능들은 더 다양하고 복잡해지고 있다. 복잡한 기능 때문에 일반 사용자들도 기능을 사용하기 힘든 경우가 있다. 본 논문에서는 사용자에게 편리하고 간단한 인터페이스 방식을 제공하자는데 목적을 두고 있다. 음성 인식의 경우 사용자 입장에서 직관적이고 사용하기 편리할 뿐만 아니라 다양한 명령어를 입력할 수 있다. 하지만 음성 인식을 착용형 단말에서 사용할 경우 컴퓨팅 파워라든지 소모전력 등 하드웨어적인 제약이 있다. 또한 착용형 단말은 언제 사용자가 음성으로 명령을 내릴지 그 시점을 알 수가 없다. 따라서 명령을 입력 받기 위해서는 음성 인식이 항상 동작하여야 한다. 하지만 소모전력 문제 때문에 이와 같은 방법을 사용하기에는 무리가 있다. 음성 인식이 가지고 있는 문제점을 보완하기 위해 제스처 인식을 사용한다. 본 논문에서는 음성과 제스처를 혼합한 멀티 모달 인터페이스로 사용자에게 어떻게 편리한 인터페이스를 제공할 것인지에 대해 설명하고 있다.