DOI QR코드

DOI QR Code

A Mobile Landmarks Guide : Outdoor Augmented Reality based on LOD and Contextual Device

모바일 랜드마크 가이드 : LOD와 문맥적 장치 기반의 실외 증강현실

  • Zhao, Bi-Cheng (Dept. of Information Engineering, Inha University) ;
  • Rosli, Ahmad Nurzid (Dept. of Information Engineering, Inha University) ;
  • Jang, Chol-Hee (Dept. of Information Engineering, Inha University) ;
  • Lee, Kee-Sung (Dept. of Information Engineering, Inha University) ;
  • Jo, Geun-Sik (Dept. of Computer Science & Information Engineering, Inha University)
  • 조비성 (인하대학교 IT공과대학 정보공학과) ;
  • 누르지드 (인하대학교 IT공과대학 정보공학과) ;
  • 장철희 (인하대학교 IT공과대학 정보공학과) ;
  • 이기성 (인하대학교 IT공과대학 정보공학과) ;
  • 조근식 (인하대학교 IT공과대학 컴퓨터정보공학부)
  • Received : 2012.01.26
  • Accepted : 2012.02.14
  • Published : 2012.03.31

Abstract

In recent years, mobile phone has experienced an extremely fast evolution. It is equipped with high-quality color displays, high resolution cameras, and real-time accelerated 3D graphics. In addition, some other features are includes GPS sensor and Digital Compass, etc. This evolution advent significantly helps the application developers to use the power of smart-phones, to create a rich environment that offers a wide range of services and exciting possibilities. To date mobile AR in outdoor research there are many popular location-based AR services, such Layar and Wikitude. These systems have big limitation the AR contents hardly overlaid on the real target. Another research is context-based AR services using image recognition and tracking. The AR contents are precisely overlaid on the real target. But the real-time performance is restricted by the retrieval time and hardly implement in large scale area. In our work, we exploit to combine advantages of location-based AR with context-based AR. The system can easily find out surrounding landmarks first and then do the recognition and tracking with them. The proposed system mainly consists of two major parts-landmark browsing module and annotation module. In landmark browsing module, user can view an augmented virtual information (information media), such as text, picture and video on their smart-phone viewfinder, when they pointing out their smart-phone to a certain building or landmark. For this, landmark recognition technique is applied in this work. SURF point-based features are used in the matching process due to their robustness. To ensure the image retrieval and matching processes is fast enough for real time tracking, we exploit the contextual device (GPS and digital compass) information. This is necessary to select the nearest and pointed orientation landmarks from the database. The queried image is only matched with this selected data. Therefore, the speed for matching will be significantly increased. Secondly is the annotation module. Instead of viewing only the augmented information media, user can create virtual annotation based on linked data. Having to know a full knowledge about the landmark, are not necessary required. They can simply look for the appropriate topic by searching it with a keyword in linked data. With this, it helps the system to find out target URI in order to generate correct AR contents. On the other hand, in order to recognize target landmarks, images of selected building or landmark are captured from different angle and distance. This procedure looks like a similar processing of building a connection between the real building and the virtual information existed in the Linked Open Data. In our experiments, search range in the database is reduced by clustering images into groups according to their coordinates. A Grid-base clustering method and user location information are used to restrict the retrieval range. Comparing the existed research using cluster and GPS information the retrieval time is around 70~80ms. Experiment results show our approach the retrieval time reduces to around 18~20ms in average. Therefore the totally processing time is reduced from 490~540ms to 438~480ms. The performance improvement will be more obvious when the database growing. It demonstrates the proposed system is efficient and robust in many cases.

최근 스마트폰의 등장으로 인해 사용자들은 시간과 공간의 제약 없이 스마트폰을 이용한 새로운 의사소통의 방법을 경험하고 있다. 이러한 스마트폰은 고화질의 컬러화면, 고해상도 카메라, 실시간 3D 가속그래픽과 다양한 센서(GPS와 Digital Compass) 등을 제공하고 있으며, 다양한 센서들은 사용자들(개발자, 일반 사용자)로 하여금 이전에 경험하지 못했던 서비스를 경험할 수 있도록 지원하고 있다. 그 중에서 모바일 증강현실은 스마트폰의 다양한 센서들을 이용하여 개발할 수 있는 대표적인 서비스 중 하나이며, 이러한 센서들을 이용한 다양한 방법의 모바일 증강현실 연구들이 활발하게 진행되고 있다. 모바일 증강현실은 크게 위치 정보 기반의 서비스와 내용 기반 서비스로 구분할 수 있다. 위치 정보 기반의 서비스는 구현이 쉬운 장점이 있으나, 증강되는 정보의 위치가 실제의 객체의 정확한 위치에 증강되는 정보가 제공되지 않는 경우가 발생하는 단점이 존재한다. 이와 반대로, 내용 기반 서비스는 정확한 위치에 증강되는 정보를 제공할 수 있으나, 구현 및 데이터베이스에 존재하는 이미지의 양에 따른 검색 속도가 증가하는 단점이 존재한다. 본 논문에서는 위치 정보 기반의 서비스와 내용기반의 서비스의 장점들을 이용한 방법으로, 스마트폰의 다양한 센서(GPS, Digital Compass)로 부터 수집된 정보를 이용하여 데이터베이스의 탐색 범위를 줄이고, 탐색 범위에 존재하는 이미지들의 특징 정보를 기반으로 실제의 랜드마크를 인식하고, 인식한 랜드마크의 정보를 링크드 오픈 데이터(LOD)에서 검색하여 해당 정보를 제공하는 랜드마크 가이드 시스템을 제안한다. 제안하는 시스템은 크게 2개의 모듈(랜드마크 탐색 모듈과 어노테이션 모듈)로 구성되어있다. 첫 번째로, 랜드마크 탐색 모듈은 스마트폰으로 인식한 랜드마크(건물, 조형물 등)에 해당하는 정보들을 (텍스트, 사진, 비디오 등) 링크드 오픈 데이터에서 검색하여 검색된 결과를 인식한 랜드마크의 정확한 위치에 정보를 제공하는 역할을 한다. 스마트폰으로부터 입력 받은 이미지에서 특징점 추출을 위한 방법으로는 SURF 알고리즘을 사용했다. 또한 실시간성을 보장하고 처리 속도를 향상 시키기 위한 방법으로는 입력 받은 이미지와 데이터베이스에 있는 이미지의 비교 연산을 수행할 때 GPS와 Digital Compass의 정보를 사용하여 그리드 기반의 클러스터링을 생성하여 탐색 범위를 줄임으로써, 이미지 검색 속도를 향상 시킬 수 있는 방법을 제시하였다. 두 번째로 어노테이션 모듈은 사용자들의 참여에 의해서 새로운 랜드마크의 정보를 링크드 오픈 데이터에 추가할 수 있는 기능을 제공한다. 사용자들은 키워드를 이용해서 링크드 오픈 데이터로에서 관련된 주제를 검색할 수 있으며, 검색된 정보를 수정하거나, 사용자가 지정한 랜드마크에 해당 정보를 표시할 수 있도록 지정할 수 있다. 또한, 사용자가 지정하려고 하는 랜드마크에 대한 정보가 존재하지 않는다면, 사용자는 랜드마크의 사진을 업로드하고, 새로운 랜드마크에 대한 정보를 생성하는 기능을 제공한다. 이러한 과정은 시스템이 카메라로부터 입력 받은 대상(랜드마크)에 대한 정확한 증강현실 컨텐츠를 제공하기 위해 필요한 URI를 찾는데 사용되며, 다양한 각도의 랜드마크 사진들을 사용자들에 의해 협업적으로 생성할 수 있는 환경을 제공한다. 본 연구에서 데이터베이스의 탐색 범위를 줄이기 위해서 랜드마크의 GPS 좌표와 Digital Compass의 정보를 이용하여 그리드 기반의 클러스터링 방법을 제안하여, 그 결과 탐색시간이 기존에는 70~80ms 걸리는 반면 제안하는 방법을 통해서는 18~20ms로 약 75% 정도 향상된 것을 확인할 수 있었다. 이러한 탐색시간의 감소는 전체적인 검색시간을 기존의 490~540ms에서 438~480ms로 약 10% 정도 향상된 것을 확인하였다.

Keywords

References

  1. Adams, A., N. Gelfand, and K. Pulli, "Viewfinder alignment", Comput. Graph, Forum, (2008), 597-606.
  2. Agarwal, S., N. Snavely, I. Simon, S. Seitz, and R. Szeliski, "Building rome in a day", In Proceedings of the International Conference on Computer Vision (ICCV), 2009.
  3. Ankerst, M., M. Breunig, P. Kriegel, and J. Sander, "OPTICS : ordering points to identify the clustering structure", In Proc. of SIGMOD, (1999), 49-60.
  4. Bay, H., A. Ess, T. Tuytelaars, and L. V. Gool, "Speeded-up robust features (surf)", Computer Vision and Image Understanding, 2008
  5. Bay, H., B. Fasel, and L. V. Gool, "Interactive Museum Guide : Fast and Robust Recognition of Museum Objects", Proceedings of the First International Workshop on Mobile Vision, 2006.
  6. Chen, W.-C., Y. Xiong, J. Gao, N. Gelfand, and R. Grzeszczuk, "Efficient Extraction of Robust Image Features on Mobile Devices", Proceedings of the Sixth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR'07), 2007.
  7. Cho, Y. and Aekwon Choi, "The Design of Smart -phone Application Design for Intelligent Personalized Service in Exhibition Space", Journal of Intelligence and Information Systems, Vol.17, No.2(2011), 109-117.
  8. Datta, R., J. Li, and J. Z. Wang, "Content-based image retrieval : approaches and trends of the new age", in MIR '05 : Proceedings of the 7th ACM SIGMM international workshop on Multimedia information retrieval, (2005), 253-262.
  9. Fritz, G., C. Seifert, and L. Paletta, "A Mobile Vision System for Urban Detection with Informative Local Descriptors", Proceedings of the Fourth IEEE International Conference on Computer Vision Systems, (2006), 30-40.
  10. Henze, N., T. Schinke, and S. Boll., "What is that? Object recognition from natural features on a mobile phone", In Proceedings of the Workshop on Mobile Interaction with the Real World, 2009.
  11. Klein, G. and D. Murray, "Parallel tracking and mapping on a camera phone", In ISMAR'09, 2009.
  12. Kyoung, K. Y., "Self-Tour Service Technology based on a Smartphone", Journal of Intelligence and Information Systems, Vol.16, No.4 (2010), 147-157.
  13. Lee, Y. H., K. J. Oh, V. Sean, and G. S. Jo, "A Collaborative Video Annotation and Browsing System using Linked Data", Journal of Intelligence and Information Systems, Vol.17, No.3(2011), 203-219.
  14. Li, X., C. Wu, C. Zach, S. Lazebnik, and J.-M, "Modeling and recognition of landmark image collections using iconic scene graphs", (2008), 427-440.
  15. Rohs, M. and B. Gfeller., "Using camera- equipped mobile phones for interacting with real- world objects", In Advances in Pervasive Computing, (2004), 265-271.
  16. Skrypnyk, I. and D. G. Lowe, "Scene Modelling, Recognition and Tracking with Invariant Image Features", Proceedings of the Third IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR'04),(2004), 110-119.
  17. Ta, D., W. Chen, N. Gelfand, and K. Pulli, "Surftrac : Efficient tracking and continuous object recognition using local feature descriptors", In CVPR09, 2009.
  18. Takacs, G., V. Chandrasekhar, B. Girod, and R. Grzeszczuk, "Feature Tracking for Mobile Augmented Reality Using Video Coder Motion Vectors", Proceedings of the Sixth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), 2007.
  19. Wagner, D., G. Reitmayr, A. Mulloni, T. Drummond, and D. Schmalstieg, "Pose tracking from natural features on mobile phones", Proceedings of the International Symposium on Mixed and Augmented Reality (ISMAR), 2008.