Abstract
Ontology-based context models are widely used in ubiquitous computing environment because they have advantages in the acquisition of conceptual context through inferencing, context sharing, and context reusing. Among the benefits, inferencing enables context-aware applications to use conceptual contexts which cannot be acquired by sensors. However, inferencing causes processing delay and thus becomes the major obstacle to the implementation of context-aware applications. The delay becomes longer as the amount of contexts increases. In this paper, we propose a context pre-fetching method to reduce the size of contexts to be processed in a working memory in attempt to speed up inferencing. For this, we extend the query-tree method to identify contexts relevant to the queries of a context-aware application. Maintaining the pre-fetched contexts optimal in a working memory, the processing delay of inference reduces without the loss of the benefits of ontology-based context model. We apply the proposed scheme to our ubiquitous computing middleware, Active Surroundings, and demonstrate the performance enhancement by experiments.
유비쿼터스 컴퓨팅 환경에서 온툴로지 기반의 상황정보 모델은 추론을 통한 개념적 상황정보의 획득, 상황정보의 공유와 재사용의 이점을 제공하기 때문에 널리 사용되고 있다. 이 중에서 추론은 상황인지 어플리케이션이 센서로부터 직접 얻을 수 없는 개념적 상황정보를 이용할 수 있도록 해준다. 하지만 추론의 경우, 그 처리 시간이 대상이 되는 상황정보의 크기가 커질수록 증가하게 되며, 이때 야기되는 시간 지연은 상황인지 어플리케이션의 실제적인 동작을 방해한다. 본 논문에서는, 추론 속도를 향상시키기 위해 작업 메모리에서 처리되는 상황정보의 크기를 줄이는 상황정보 선인출 기법을 제안한다. 우리는 상황인지 어플리케이션의 질의와 관련이 있는 상황정보를 결정하기 위해 기존의 쿼리트리를 이용한 방법을 확장한다. 제안한 기법을 이용하여 선인출된 상황정보만 작업 메모리에 유지함으로써, 온툴로지 기반의 상황정보가 제공하는 이점을 유지하면서 추론에 의해 야기되는 시간 지연을 줄일 수 있다. 우리는 제안한 기법을 기존의 유비쿼터스 컴퓨팅 미들웨어, Active Surroundings에 적용시키고 실험을 통해 성능 향상을 보였다.