Design and Implementation of a User Activity Auto-recognition System based on Multimodal Sensor in Ubiquitous Computing Environment
유비쿼터스 컴퓨팅환경에서의 Multimodal Sensor 기반의 Health care를 위한 사용자 행동 자동인식 시스템 - Multi-Sensor를 이용한 ADL(activities of daily living) 지수 자동 측정 시스템
Abstract
A sensor system capable of automatically recognize activities would allow many potential Ubiquitous applications. This paper presents a new system for recognizing the activities of daily living(ADL) like walking, running, standing, sitting, lying etc. The system based on the state-dependent motion analysis using Tri-Accelerometer and Zigbee tag. Two accelerometers are used for the classification of body and hand activities. Classification of the environment and instrumental activities is performed based on the hand interaction with an object ID using.
유비쿼터스 컴퓨팅 환경의 급속한 발전은 Multi-Sensor를 이용하여 자동으로 사용자의 행동인식을 가능한 환경을 만들어주었다. 따라서 이 논문에서는 사용자가 일상생활을 하는데 있어서 기본적으로 필요한 행동인 ADL(activities of daily living)의 수행능력을 분석하고 진단할 수 있는 Multi-Sensor기반의 ADL 자동 진단 시스템을 구축하였다. 두 개의 가속도 센서를 허벅지와 손목에 부착하여 사용자의 행동 정보를 수집하고 이를 Decision-Tree를 통하여 분석하여 사용자의 행동 정보를 수집하였다. 또한 Zigbee 센서를 이용하여 개별 물체의 Object ID를 이용하여 사용자의 위치정보와 주변의 물체의 정보를 수집하여 사용자의 상태 정보를 수집하였다. 이렇게 수집된 행동 정보와 상태 정보들을 통하여 일상생활에 필요한 약 20여 가지의 행동을 인식하였고 평균적으로 96%이상의 정확도를 나타내었으며 이를 통하여 ADL 지수를 자동으로 측정하였다.