DOI QR코드

DOI QR Code

A Collaborative Video Annotation and Browsing System using Linked Data

링크드 데이터를 이용한 협업적 비디오 어노테이션 및 브라우징 시스템

  • Lee, Yeon-Ho (Dept. of Information Engineering, Inha University) ;
  • Oh, Kyeong-Jin (Dept. of Information Engineering, Inha University) ;
  • Sean, Vi-Sal (Dept. of Information Engineering, Inha University) ;
  • Jo, Geun-Sik (Dept. of Computer Science and Information Engineering, Inha University)
  • 이연호 (인하대학교 IT공과대학 정보공학과) ;
  • 오경진 (인하대학교 IT공과대학 정보공학과) ;
  • 신위살 (인하대학교 IT공과대학 정보공학과) ;
  • 조근식 (인하대학교 IT공과대학 컴퓨터정보공학부)
  • Received : 2011.08.09
  • Accepted : 2011.08.25
  • Published : 2011.09.30

Abstract

Previously common users just want to watch the video contents without any specific requirements or purposes. However, in today's life while watching video user attempts to know and discover more about things that appear on the video. Therefore, the requirements for finding multimedia or browsing information of objects that users want, are spreading with the increasing use of multimedia such as videos which are not only available on the internet-capable devices such as computers but also on smart TV and smart phone. In order to meet the users. requirements, labor-intensive annotation of objects in video contents is inevitable. For this reason, many researchers have actively studied about methods of annotating the object that appear on the video. In keyword-based annotation related information of the object that appeared on the video content is immediately added and annotation data including all related information about the object must be individually managed. Users will have to directly input all related information to the object. Consequently, when a user browses for information that related to the object, user can only find and get limited resources that solely exists in annotated data. Also, in order to place annotation for objects user's huge workload is required. To cope with reducing user's workload and to minimize the work involved in annotation, in existing object-based annotation automatic annotation is being attempted using computer vision techniques like object detection, recognition and tracking. By using such computer vision techniques a wide variety of objects that appears on the video content must be all detected and recognized. But until now it is still a problem facing some difficulties which have to deal with automated annotation. To overcome these difficulties, we propose a system which consists of two modules. The first module is the annotation module that enables many annotators to collaboratively annotate the objects in the video content in order to access the semantic data using Linked Data. Annotation data managed by annotation server is represented using ontology so that the information can easily be shared and extended. Since annotation data does not include all the relevant information of the object, existing objects in Linked Data and objects that appear in the video content simply connect with each other to get all the related information of the object. In other words, annotation data which contains only URI and metadata like position, time and size are stored on the annotation sever. So when user needs other related information about the object, all of that information is retrieved from Linked Data through its relevant URI. The second module enables viewers to browse interesting information about the object using annotation data which is collaboratively generated by many users while watching video. With this system, through simple user interaction the query is automatically generated and all the related information is retrieved from Linked Data and finally all the additional information of the object is offered to the user. With this study, in the future of Semantic Web environment our proposed system is expected to establish a better video content service environment by offering users relevant information about the objects that appear on the screen of any internet-capable devices such as PC, smart TV or smart phone.

최근 인터넷이 가능한 컴퓨터뿐만 아니라 스마트TV, 스마트폰과 같은 장치를 통한 동영상 형태의 멀티미디어 소비가 증가함에 따라 단순히 시청만 하는 것이 아니라 동영상 콘텐츠 사용자들은 자신이 원하는 동영상 콘텐츠를 찾거나 동영상 콘텐츠에 등장하는 객체의 부가 정보를 브라우징 하고자 하는 요구가 증대되고 있다. 이러한 사용자의 요구를 충족시키기 위해서는 노동집약적인 어노테이션 작업이 불가피하다. 동영상 콘텐츠에 등장하는 객체에 직접 부가정보를 기술하는 키워드 기반 어노테이션 연구에서는 객체에 대한 관련 정보들을 어노테이션 데이터에 모두 포함시켜 대용량 데이터를 개별적으로 직접 관리해야 한다. 이러한 어노테이션 데이터를 이용하여 브라우징을 할 때, 어노테이션 데이터에 이미 포함 되어 있는 정보만 제한적으로 검색이 된다는 단점을 가지고 있다. 또한, 기존의 객체 기반 어노테이션에서는 어노테이션 작업량을 줄이기 위해 객체 검출 및 인식, 트래킹 등의 컴퓨터 비전 기술을 적용한 자동 어노테이션을 시도하고 있다. 그러나 다양한 종류의 객체를 모두 검출해내고 인식하여, 자동으로 어노테이션을 하기에는 현재까지의 기술로는 큰 어려움이 있다. 이러한 문제점들을 극복하고자 본 논문에서는 비디오 어노테이션 모듈과 브라우징 모듈로 구성되는 시스템을 제안한다. 시맨틱 데이터에 접근하기 위해 링크드 데이터를 이용하여 다수의 어노테이션을 수행하는 사용자들이 협업적으로 동영상 콘텐츠에 등장하는 객체에 대한 어노테이션을 수행 할 수 있도록 하는 어노테이션 모듈이다. 첫 번째는 어노테이션 서버에서 관리되는 어노테이션 데이터는 온톨로지 형태로 표현하여 다수의 사용자가 어노테이션 데이터를 쉽게 공유하고 확장 할 수 있도록 하였다. 특히 어노테이션 데이터는 링크드 데이터에 존재하는 객체의 URI와 동영상 콘텐츠에 등장하는 객체를 연결하기만 한다. 즉, 모든 관련 정보를 포함하고 있는 게 아니라 사용자의 요구가 있을 때, 해당 객체의 URI를 이용하여 링크드 데이터로부터 가져온다. 두 번째는 시청자들이 동영상 콘텐츠를 시청하는 중 관심 있는 객체에 대한 정보를 브라우징 하는 모듈이다. 이 모듈은 시청자의 간단한 상호작용을 통해 적절한 질의문을 자동으로 생성하고 관련 정보를 링크드 데이터로 부터 얻어 제공한다. 본 연구를 통해 시맨틱웹 환경에서 사용자의 상호작용을 통해 즉각적으로 관심 있는 객체의 부가적인 정보를 얻을 수 있도록 함으로써 향후 개선된 동영상 콘텐츠 서비스 환경이 구축 될 수 있기를 기대한다.

Keywords

References

  1. 문애경, 박유미, 김상기, "시맨틱 웹서비스를 위한 시맨틱 어노테이션 기술 동향", 전자통신동향분석, 25권 2호(2010).
  2. 이재호, "시맨틱웹과 온톨로지", 첨단정보기술연구센터 소식지, 17권(2004).
  3. 이종희, "주석 및 특징을 이용한 의미기반 비디오 검색 시스템", 전자공학회논문지-CI, 41권 4호(2004), 41-420.
  4. 이진활, 홍명덕, 이기성, 정진국, 조근식, "이동 객체의 효과적 표현을 위한 시맨틱 어노테이션 방법", 한국컴퓨터 정보학회논문지, 16권 7호 (2011), 67-76.
  5. 임수민, 정진우, 손진현, 이동호, "고수준 의미 정보 자동 추출을 위한 이벤트 온톨로지 기반 비디오 주석시스템", 한국정보과학회 2008 가을 학술발표논문집, 35권 2호(2008), 246-251.
  6. 전양승, 정영식, 한성국, "시맨틱 웹 서비스 기술 동향", 정보과학회지, 24권 4호(2006), 82-95.
  7. 조명대, "도서관에서의 Linked Data 활용방안에 관한 연구", 한국문헌정보학회지, 44권 1호 (2010), 181-198.
  8. 천수덕, 신정훈, 이상준, "디지털 콘텐츠의 메타데 이타를 이용한 효율적인 브라우징의 구현", 한국정보과학회 2008 종합학술대회논문집, 35권 1호(2008), 7-10.
  9. Bechhofer, S., F. V. Harmelen, J. and Hendler et al, "OWL Web Ontology Language Reference", W3C, http://www.w3.org/TR/owl-ref/, 2004.
  10. Beckett, D., "RDF/XML Syntax Specification", W3C, http://www.w3.org/TR/rdf-syntax-grammar/, 2004.
  11. Berners-Lee, T., "A Roadmap of the Semantic Web", W3C, http://www.w3.org/DesignIssues/Semantic.html, 1998.
  12. Berners-Lee, T., "Linked Data", W3C, http://www.w3.org/DesignIssues/LinkedData.html, 2006.
  13. Bruijin, J. D., C. Bussler and J. Domingue et al., "Web Service Modeling Ontology(WSMO)", Member Submission, W3C, http://www.w3.org/Submission/WSMO/, 2005.
  14. Dingli, A., "Annotation for the Semantic Web", Intelligent Systems Reference Library, Vol. 16, No.1(2011), 19-24.
  15. Fensel, D., M. Kerrigan and M. Zaremba, "Implementing Semantic Web Services", Springer, 2008.
  16. Lambert, D. and H. Q. Yu, "Linked Data Based Video Annotation and Browsing for Distance Learning", Proceedings of The Second International Workshop On Semantic Web Applications In Higher Education, 2010.
  17. Martin, D., M. Burstein and J. Hobbs et al., "OWL-S : Semantic Markup for Web Services", Member Submission, W3C, http://www.w3.org/Submission/OWL-S/, 2004.
  18. Miller, G. A., R. Beckwith, C. Fellbaum, D. Gross and K. J. Miller. "Introduction to wordnet : An on-line lexieal database", Journal of L e-xieography, Vol.3(1990), 235-244.
  19. Simon, R., B. Haslhofer and J. Jung, "Annotations, Tags and Linked Data-Metadata Enrichment in Online Map Collections through Volunteer- Contributed Information", 6th International Workshop on Digital Approaches in Cartographic Heritage, (2011).
  20. Schroeter, R., J. Hunter and D. Kosovic, "Vannotea- a collaborative video indexing, annotation and discussion system for broadband networks", Proceedings of K-CAP 2003 Workshop on Knowledge Markup and Semantic Annotation, (2003).
  21. Swartz A., "MusicBrainz : A Semantic Web Service", Journal of IEEE Intelligent Systems, Vol.17(2002), 76-77.
  22. Yuen, J., B. Russell, C. Liu and A. Torralba, "LabelMe video : building a video database with human annotations", Proceedings of IEEE International Conference on Computer Vision, (2009), 1451-1458.
  23. Vatant, B., "Geonames Ontology", http://www.geonames.org/ontology/, 2009.

Cited by

  1. 링크드 데이터 방식을 통한 서지 정보의 확장에 관한 연구 vol.29, pp.1, 2011, https://doi.org/10.3743/kosim.2012.29.1.231
  2. A Mobile Landmarks Guide : Outdoor Augmented Reality based on LOD and Contextual Device vol.18, pp.1, 2011, https://doi.org/10.13088/jiis.2012.18.1.001
  3. 시각적 특징을 기반한 샷 클러스터링을 통한 비디오 씬 탐지 기법 vol.18, pp.2, 2011, https://doi.org/10.13088/jiis.2012.18.2.047
  4. 기록물 전거통제 기반 Linked Data 구축에 대한 연구 vol.23, pp.2, 2012, https://doi.org/10.14699/kbiblia.2012.23.2.005