Publications

Detailed Information

False Negative Distillation and Contrastive Learning for Personalized Outfit Recommendation : 개인화 코디 추천을 위한 위음성 증류 및 대조 학습

DC Field Value Language
dc.contributor.advisor이상구-
dc.contributor.author김성재-
dc.date.accessioned2022-06-16T06:48:44Z-
dc.date.available2022-06-16T06:48:44Z-
dc.date.issued2022-
dc.identifier.other000000169257-
dc.identifier.urihttps://hdl.handle.net/10371/181346-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000169257ko_KR
dc.description학위논문(석사) -- 서울대학교대학원 : 공과대학 컴퓨터공학부, 2022.2. 이상구.-
dc.description.abstractPersonalized outfit recommendation has recently been in the spotlight with the rapid growth of the online fashion industry. However, recommending outfits has two significant challenges that should be addressed. The first challenge is that outfit recommendation often requires a complex and large model that utilizes visual information, incurring huge memory and time costs. One natural way to mitigate this problem is to compress such a cumbersome model with knowledge distillation (KD) techniques that leverage knowledge from a pretrained teacher model. However, it is hard to apply existing KD approaches in recommender systems (RS) to the outfit recommendation because they require the ranking of all possible outfits while the number of outfits grows exponentially to the number of consisting clothing items. Therefore, we propose a new KD framework for outfit recommendation, called False Negative Distillation (FND), which exploits false-negative information from the teacher model while not requiring the ranking of all candidates. The second challenge is that the explosive number of outfit candidates amplifying the data sparsity problem, often leading to poor outfit representation. To tackle this issue, inspired by the recent success of contrastive learning (CL), we introduce a CL framework for outfit representation learning with two proposed data augmentation methods. Quantitative and qualitative experiments on outfit recommendation datasets demonstrate the effectiveness and soundness of our proposed methods.-
dc.description.abstract최근 온라인 패션 산업이 급성장하면서 개인화 코디 추천이 각광받고 있다. 그러나 코디 추천은 해결해야 할 두 가지 중요한 챌린지가 있다. 첫 번째 챌린지는 코디 추천이 주로 시각 정보를 활용하는 복잡하고 큰 모델을 필요로 하기 때문에 상당한 시간과 메모리 비용이 발생한다는 것이다. 이 문제를 완화하는 한 가지 자연스러운 방법은 사전 훈련된 교사 모델의 지식을 활용하는 지식 증류 기술을 이용하여 이러한 성가신 모델을 압축하는 것이다. 그러나 추천 시스템의 기존 지식 증류 접근법은 가능한 모든 코디의 순위를 필요로 하며, 코디의 수는 구성되는 의상의 수에 따라 기하급수적으로 증가하기 때문에 코디 추천에 기존 지식 증류 접근법을 적용하는 것은 상당히 까다로운 작업이다. 따라서 우리는 모든 후보 코디의 순위를 요구하지 않으면서 교사 모델의 위음성 정보를 활용하는 위음성 증류라는 새로운 지식 증류 프레임워크를 제안한다. 두 번째 챌린지는 코디 후보의 폭발적인 수로 인해 데이터 희소성 문제가 증폭되어 종종 코디 표현(representation)이 좋지 않다는 것이다. 이 문제를 해결하기 위해 최근 대조 학습의 성공에 영감을 받아 새로운 두 가지 데이터 증강 기법을 사용하는 코디 표현 학습을 위한 대조 학습 프레임워크를 제안한다. 우리는 코디 추천 데이터 세트에 대한 양적 및 질적 실험을 통해 제안된 방법의 효과와 타당성을 보인다.-
dc.description.tableofcontentsAbstract i
Contents ii
List of Tables v
List of Figures vi
1 Introduction 1
2 Related Work 5
2.1 Outfit Recommendation 5
2.2 Knowledge Distillation 6
2.3 Contrastive Learning 6
3 Approach 7
3.1 Background: Computing the Preference Score to an Outfit 8
3.1.1 Set Transformer 9
3.1.2 Preference score prediction 10
3.2 False Negative Distillation 10
3.2.1 Teacher model 10
3.2.2 Student model 11
3.3 Contrastive Learning for Outfits 13
3.3.1 Erase 14
3.3.2 Replace 14
3.4 Final Objective: FND-CL 14
3.5 Profiling Cold Starters 15
3.5.1 Average (avg) 16
3.5.2 Weighted Average (w-avg) 16
4 Experiment 17
4.1 Experimental Design 17
4.1.1 Datasets 17
4.1.2 Evaluation metrics 18
4.1.3 Considered methods 18
4.1.4 Implementation details 19
4.2 Performance Comparison 20
4.3 Performance on Cold Starters 21
4.4 Performance on Hard Negative Outfits 22
4.5 Performance with Different α 23
4.6 Performance with Different Augmentations 24
4.7 Performance with Different Model Sizes 25
4.8 Performance with Different Batch Sizes 27
4.9 Visualization of the User-Outfit Space 28
5 Conclusion 30
Bibliography 31
A Appendix 37
A.1 Enhancing the Performance of a Teacher Model 37
A.1.1 Teacher-CL 38
A.1.2 Employing Teacher-CL: FND-CL* 39
Abstract (In Korean) 40
-
dc.format.extentvi, 40-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectPersonalized Outfit Recommendation, Knowledge Distillation, False Negative Distillation, Contrastive Learning-
dc.subject.ddc621.39-
dc.titleFalse Negative Distillation and Contrastive Learning for Personalized Outfit Recommendation-
dc.title.alternative개인화 코디 추천을 위한 위음성 증류 및 대조 학습-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorSeongjae Kim-
dc.contributor.department공과대학 컴퓨터공학부-
dc.description.degree석사-
dc.date.awarded2022-02-
dc.identifier.uciI804:11032-000000169257-
dc.identifier.holdings000000000047▲000000000054▲000000169257▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share