DOI QR코드

DOI QR Code

이동 객체의 효과적 표현을 위한 시맨틱 어노테이션 방법

A Semantic Annotation Method for Efficient Representation of Moving Objects

  • 이진활 (인하대학교 컴퓨터공학과) ;
  • 홍명덕 (인하대학교 컴퓨터공학과) ;
  • 이기성 (인하대학교 컴퓨터공학과) ;
  • 정진국 (인하대학교 컴퓨터공학과) ;
  • 조근식 (인하대학교 컴퓨터공학과)
  • Lee, Jin-Hwal (Dept. of Computer Information & Engineering, Inha University) ;
  • Hong, Myung-Duk (Dept. of Computer Information & Engineering, Inha University) ;
  • Lee, Kee-Sung (Dept. of Computer Information & Engineering, Inha University) ;
  • Jung, Jin-Guk (Dept. of Computer Information & Engineering, Inha University) ;
  • Jo, Geun-Sik (Dept. of Computer Information & Engineering, Inha University)
  • 투고 : 2011.03.22
  • 심사 : 2011.03.30
  • 발행 : 2011.07.31

초록

최근 비디오가 대화형 콘텐츠를 위한 타입으로 많은 각광을 받기 시작하면서 비디오 데이터에 포함된 객체들을 의미적으로 표현하고 검색하기 위한 시맨틱 어노테이션 방법에 대한 연구가 활발히 진행되고 있다. 비디오 데이터에 포함된 객체들은 시간의 변화에 따라 공간적 위치가 변화하기 때문에 매 프레임마다 상이한 위치 데이터가 발생한다. 따라서 모든 프레임의 객체에 대한 위치 데이터들을 저장하는 것은 매우 비효율적이므로 이를 부적절한 오차가 발생하지 않는 범위 내에서, 효과적으로 압축하여 표현할 필요가 있다. 본 논문은 컴퓨터 또는 에이전트가 직관적으로 객체에 대한 정보를 이해할 수 있도록 표현하기 위해 비디오 데이터가 포함하는 객체에 대하여 의미적 정보를 부여하기 위한 온톨로지 모델링 방법과 이동 객체의 위치 데이터를 압축하기 위해 3차 스플라인 보간법을 적용하여 의미적 정보와 함께 어노테이션 하는 방법을 제안한다. 제안한 어노테이션 방법의 효율을 검증하기 위한 대화형 비디오 시스템을 구현하고, 다양한 특징을 가지는 객체가 나타나는 비디오 데이터 셋을 이용하여 샘플링 간격에 따른 오차율과 데이터량을 비교하였다. 그 결과, 샘플링 간격이 15프레임 이하 일 때, 최대 80%의 데이터 저장 공간을 절약할 수 있을 뿐만 아니라 객체의 실제 좌표 대비 최대 31픽셀, 평균 4픽셀 미만의 오차 편차를 얻을 수 있었다.

Recently, researches for semantic annotation methods which represent and search objects included in video data, have been briskly activated since video starts to be popularized as types for interactive contents. Different location data occurs at each frame because coordinates of moving objects are changed with the course of time. Saving the location data for objects of every frame is too ineffective. Thus, it is needed to compress and represent effectively. This paper suggests two methods; the first, ontology modeling for moving objects to make users intuitively understandable for the information, the second, to reduce the amount of data for annotating moving objects by using cubic spline interpolation. To verify efficiency of the suggested method, we implemented the interactive video system and then compared with each video dataset based on sampling intervals. The result follows : when we got samples of coordinate less than every 15 frame, it showed that could save up to 80% amount of data storage; moreover, maximum of error deviation was under 31 pixels and the average was less than 4 pixels.

키워드

참고문헌

  1. J.H. Lee, S.-B. Park, Y.W. Kim, and G.S. Jo, "Automatic Video Annotation using Extraction of Character Name," KCC, Vol. 36, No. 1, pp. 525-530, 2009.
  2. M. Everingham, J. Sivic, and A. Zisserman, "Taking the bite out of automated naming of characters in TV video," The 17th British Machine Vision Conf. Image and Vision Computing, Vol. 27, pp. 545-559. April 2009.
  3. S.-B. Park, Y.W. Kim, and G.S. Jo, "Major Character Extraction using Character-Net," KSII, Vol. 11, No. 1, pp. 85-102, 2010.
  4. L. Chen, G.C. Chen, C.Z. Xu, J. March, and S. Benford, "EmoPlayer: A media player for video clips with affective annotations," Interacting with Computers, Vol. 20, No. 1, pp. 17-28, Jan. 2008. https://doi.org/10.1016/j.intcom.2007.06.003
  5. J.R. Cozar, N. Guil, J.M. Gonzalez-Linares, E.L.Za pata, and E. Izquierdo, "Logotype detection to support semantic-based video annotation," Signal Processing: Image Communication, Vol. 22, No. 7-8, pp. 669-679, Sep. 2007. https://doi.org/10.1016/j.image.2007.05.006
  6. Y. Li, Y. Zhang, J. Lu, R. Lim, and J. Wang, "Video Analysis and Trajectory Based Video Annotation System," Wearable Computing Systems (APWCS), Asia-Pacific Conference on, pp. 307-310, April 2010.
  7. A.R.J. Francois, R. Nevatia, J. Hobbs, R.C. Bolles, and J.R. Smith, "VERL: an ontology framework for representing and annotating video events," Multimedia, IEEE, Vol. 12, No. 4, pp. 76- 86, Oct.-Dec. 2005. https://doi.org/10.1109/MMUL.2005.87
  8. V.S. Tseng, Su. Ja-Hwung, H. Jhih-Hong, and C. Chih-Jen, "Integrated Mining of Visual Features, Speech Features, and Frequent Patterns for Semantic Video Annotation," Multimedia, IEEE Transactions on , Vol. 10, No. 2, pp. 260-267, Feb. 2008. https://doi.org/10.1109/TMM.2007.911832
  9. J. Carmigniani, B. Furht, M. Anisetti, P. Ceravolo, E. Damiani, and M. Ivkovic, "Augmented reality technologies, systems and applications," Multimedia Tools and Applications, Vol. 51 pp. 341-377, 2011. https://doi.org/10.1007/s11042-010-0660-6
  10. S. You, and U. Neumann, "Mobile Augmented Reality for Enhancing E-Learning and E-Business," Internet Technology and Applications, International Conference on, pp. 1-4, Aug. 2010.
  11. D.B. Goldman, C. Gonterman, B. Curless, D. Sale sin, and S.M. Seitz, "Video object annotation, navigation, and composition," In Proceedings of the 21st annual ACM symposium on User interface software and technology, ACM, pp. 3-12, 2008.
  12. W.C. Lee, Y.S. Moon, S.M. Lee, and H.Y. Noh, "Efficient Management of Moving Object Trajectories in the Stream Enviroment," KCC, pp. 166-170, 2006.
  13. Y.A. Ahn, J.S, Park, and G.H, Ryu, "Location Prediction of Mobile Objects using the Cubic Spline Interpolation," KCC, Vol. 31, No. 5, pp. 479-491, 2004.
  14. O. Wolfson, S. Chamberlain, Son Dao, Liqin Jiang, and G. Mendez, "Cost and imprecision in modeling the position of moving objects," Data Engineering, Proceedings, 14th International Conference on, pp. 588-596, Feb. 1998.
  15. O. Wolfson, S. Chamberlain, and L. Jiang, "Moving objects databases: issues and solutions," Scientific and Statistical Database Management, Proceedings. Tenth International Conference on, pp. 111-122, Jul. 1998.
  16. Y.J. Ji, H.J. Kim, and J.K. Heo, "Numerical Analysis with C Programming Language," NopiGipi, pp. 279-290, 2010.