A Study Comparing the Performance of Linear and Deep Learning Models in Recommender Systems as a Function of Data Size

추천 시스템에서의 선형 모델과 딥러닝 모델의 데이터 크기에 따른 성능 비교 연구

  • Da-Hun Seong (Dept. of Information Technology Engineering, Sookmyung Women's University) ;
  • Yujin Lim (Div. of Artificial Intelligence Engineering, Sookmyung Women's University)
  • 성다훈 (숙명여자대학교 IT공학과) ;
  • 임유진 (숙명여자대학교 인공지능공학부)
  • Published : 2024.05.23

Abstract

추천 시스템을 통해 사용자의 만족도를 높여 매출 증대까지 기대할 수 있기에, 추천 시스템은 과거부터 활발하게 연구되어 왔다. 추천 시스템은 크게 선형 모델과 비선형 모델로 구분할 수 있는데, 각 모델이 주로 독자적으로 연구되어 통합된 성능 결과를 명확히 알 수 없는 경우가 많아, 두 모델 간 특성 차이를 명확히 파악하여 추천 상황에서 적합한 모델을 선택하기 어려운 문제가 있다. 따라서 본 연구에서는 선형 모델과 비선형 모델을 같은 데이터와 같은 환경, 같은 성능평가 지표로 실험하여 결과를 비교 및 분석해보고자 한다.

Keywords

Acknowledgement

본 연구는 과학기술정보통신부 및 정보통신기획평가원의 ICT혁신인재4.0 사업의 연구결과로 수행되었음" (IITP-2024-RS-2022-00156299)

References

  1. A. Beutel, P. Covington, S. Jain, C. Xu, J. Li, V. Gatto and E.H. Chi, "Latent Cross: Making Use of Context in Recurrent Recommender-Systems," Proceedings of in ACM Conference on Web Search and Data Mining (WSDM), pp. 46-54, Feb. 5-9, Marina Del Rey, CA, USA, 2018.
  2. H. Steck and D. Liang, "Negative Interactions for Improved Collaborative Filtering: Don't Go Deeper, Go Higher," Proceedings of the 15th ACM Conference on Recommender Systems (RecSys), pp. 34-43, Sep. 27-Oct. 1, Amsterdam, Netherlands, 2021.
  3. F. Sun, J. Liu, J. Wu, C. Pei, X. Lin, W. Ou and P. Jiang. "BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer," Proceedings of in the 28th ACM International Conference on Information and Knowledge Management (CIKM), pp. 1441-1450, Nov. 3-7, Beijing, China, 2019.
  4. H. Steck, "Embarrassingly Shallow Autoencoders for Sparse Data," Proceedings of the World Wide Web Conference (WWW), pp. 3251-3257, May. 13-17, CA, USA, 2019.
  5. Kaggle의 MovieLens 데이터셋, https://www.kaggle.com/datasets/grouplens/movielens-20m-dataset?select=genome_tags.csv
  6. J. Devlin, M.W. Chang, K. Lee and K. Toutanova, "Bert: Pre-training of Deep Bidirectional Transformers for Language Understanding," Proceedings of ArXiv Preprint, 2018, arXiv:1810.04805.