Publications
Detailed Information
Content Representation Learning for Cold-start Video Recommendations : 콜드 스타트 비디오 추천시스템을 위한 컨텐츠 표현 학습
Cited 0 time in
Web of Science
Cited 0 time in Scopus
- Authors
- Advisor
- 이준석
- Issue Date
- 2023
- Publisher
- 서울대학교 대학원
- Keywords
- video representation learning ; multi-modal learning ; cold-start recommendation ; content-based recommendation ; transformers
- Description
- 학위논문(석사) -- 서울대학교대학원 : 데이터사이언스대학원 데이터사이언스학과, 2023. 2. 이준석.
- Abstract
- Cold-start item recommendation is a long-standing challenge in recommendation systems. A common approach to tackle cold-start problem is using content-based approach, but in movie recommendations, rich information available in raw video contents or textual descriptions has not been fully utilized. In this paper, we propose a general cold-start recommendation framework that learns multimodal content representations from the rich information in raw videos and text, directly optimized over user-item interactions, instead of using embeddings pretrained on proxy pretext task. In addition, we further exploit multimodal alignment of the item contents in a self-supervised manner, revealing great potential in content representation learning. From extensive experiments on public benchmarks, we verify the effectiveness of our method, achieving state-of-the-art performance on cold-start movie recommendation.
콜드 스타트 아이템 추천은 추천시스템 연구에서 오래된 문제 중 하나이다. 콜드 스타트 문제를 해결하기 위해 흔히 사용해온 방법은 컨텐츠 기반 접근 방식을 사용하는 것이지만, 영화 추천 시스템 분야에서는 원본 비디오 및 원문 설명 등에 내재된 풍부한 정보를 충분히 활용해오지 못했다. 본 논문에서 제안하는 콜드 스타트 추천 프레임워크에서는 원본 비디오와 텍스트의 풍부한 컨텐츠 정보를 기반으로 멀티모달 컨텐츠 표현을 학습하는 과정에서, 다른 태스크에 사전 학습된 임베딩을 활용하는 대신 유저-아이템 상호작용 정보를 이용하여 직접 임베딩을 최적화하는 방법을 제안한다. 더 나아가, 본 연구는 자기 지도 학습 방법을 통해 여러 모달리티로 표현되어 있는 아이템 컨텐츠를 고려함으로써 컨텐츠 표현 학습의 발전 가능성을 재조명한다. 최종적으로 주요 벤치마크 데이터셋에 대한 다양한 실험을 통해 본 연구에서 제안하는 방법론의 효과를 입증함과 동시에 콜드 스타트 영화 추천 분야에서 해당 분야 최고 성능을 보이는 사실을 확인하였다.
- Language
- eng
- Files in This Item:
- Appears in Collections:
Item View & Download Count
Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.