Publications

Detailed Information

Effective Training Methods for Autoregressive Text Generation : 자기회귀모델 기반 텍스트 생성을 위한 효과적인 학습 방법에 관한 연구

DC Field Value Language
dc.contributor.advisor정교민-
dc.contributor.author김양훈-
dc.date.accessioned2022-04-05T04:36:16Z-
dc.date.available2022-04-05T04:36:16Z-
dc.date.issued2021-
dc.identifier.other000000166679-
dc.identifier.urihttps://hdl.handle.net/10371/177640-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000166679ko_KR
dc.description학위논문(박사) -- 서울대학교대학원 : 공과대학 전기·정보공학부, 2021.8. 김효석.-
dc.description.abstractThe rise of deep neural networks has promoted tremendous advances in natural language processing research. Natural language generation is a subfield of natural language processing, which is inevitable in building a human-like artificial intelligence since they take responsibility for delivering the decision-making of machines in natural language. For neural network-based text generation techniques, which have achieved most state-of-the-art performance, autoregressive methods are generally adapted because of their correspondence to the word-by-word nature of human language production. In this dissertation, we investigate two different ways to train autoregressive text generation models, which are based on deep neural networks. We first focus on a token-level training of question generation, which aims to generate a question related to a given input passage. The proposed Answer-Separated Seq2Seq effectively mitigates a problem from the previous question generation models that a significant proportion of the generated questions include words in the target answer. While autoregressive methods are primarily trained with maximum likelihood estimation, they suffer from several problems, such as exposure bias. As a remedy, we propose a sequence-level GAN-based approach for text generation that promotes collaborative training in both continuous and discrete representations of text. To aggregate the achievement of the research mentioned above, we finally propose a novel way of training a sequence-level question generation model, adopting a pre-trained language model, one of the most significant breakthroughs in natural language processing, along with Proximal Policy Optimization.-
dc.description.abstract자연어 처리 연구는 딥 뉴럴넷의 도입으로 인해 대대적인 발전을 거쳤다. 자연어 처리 연구의 일종인 자연어 생성은 기계가 내린 결정을 사람이 이해할 수 있도록 전달하는 기능이 있다, 그렇기에 사람을 모방하는 인공지능 시스템을 구축하는 데에 있어 필수 불가결한 요소이다. 일반적으로 뉴럴넷 기반의 텍스트 생성 태스크에서는 자동회귀 방법론들이 주로 사용되는데, 이는 사람의 언어 생성 과정과 유사한 양상을 띠기 때문이다. 본 학위 논문에서는 두 가지 뉴럴넷 기반의 자동회귀 텍스트 생성 모델 학습 기법에 대해 제안한다. 첫 번째 방법론에서는 토큰 레벨에서의 질문 생성 모델 학습 방법에 대해 소개한다. 논문에서 제안하는 답변 분리 시퀀스-투-시퀀스 모델은 기존에 존재하는 질문 생성 모델로 생성된 질문이 답변에 해당하는 내용을 포함하는 문제점을 효과적으로 해결한다. 주로 최대 우도 추정법을 통해 학습되는 자동회귀 방법론에는 노출 편향 등과 같은 문제점이 존재한다. 이러한 문제점을 해결하기 위해 논문에서는 텍스트의 연속 공간 표현과 이산 공간 표현 모두에 대해 상호보완적으로 학습하는 시퀀스 레벨의 적대 신경망 기반의 텍스트 생성 기법을 제안한다. 마지막으로 앞선 방법론들을 종합하여 시퀀스 레벨의 질문 생성기법을 제안하며, 이러한 과정에서 최신 자연어 처리 방법 중 하나인 사전 학습 언어 모델과 근위 정책 최적화 방법을 이용한다.-
dc.description.tableofcontents1 INTRODUCTION 1
1.1 Contributions 4
2 BACKGROUND 8
2.1 Sequence-to-Sequence model 8
2.1.1 Sequence-to-Sequence model with Attention Mechanism 8
2.2 Autoregressive text generation 11
2.2.1 Maximum Likelihood Training 11
2.2.2 Pros and cons of autoregressive methods 11
2.3 Non-autoregressive text generation 13
2.4 Transformers 13
2.5 Reinforcement Learning 16
2.5.1 Policy Gradient 17
3 TOKEN-LEVEL TRAINING OF CONDITIONAL TEXT GENERATION MODEL 19
3.1 Related Work 22
3.2 Task Definition 23
3.3 Base Model: Encoder-Decoder with Attention 23
3.4 Answer-Separated Seq2Seq 25
3.4.1 Encoder 27
3.4.2 Answer-Separated Decoder 28
3.5 Experimental Settings 30
3.5.1 Dataset 30
3.5.2 Implementation Details 30
3.5.3 Evaluation Methods 32
3.6 Results 32
3.6.1 Performance Comparison 32
3.6.2 Impact of Answer Separation 34
3.6.3 Question Generation for Machine Comprehension 36
3.7 Conclusion 38
4 SEQUENCE-LEVEL TRAINING OF UNCONDITIONAL TEXT GENERATION 40
4.1 Background 42
4.1.1 Generative Adversarial Networks 42
4.1.2 Continuous-space Methods 44
4.1.3 Discrete-space Methods 44
4.2 ConcreteGAN 45
4.2.1 Autoencoder Reconstruction 45
4.2.2 Adversarial Training in the Latent Code Space 47
4.2.3 Adversarial Training with Textual Outputs 48
4.3 Experiments 49
4.3.1 Dataset 50
4.3.2 Experimental Settings 50
4.3.3 Evaluation Metrics 51
4.3.4 Experimental Results for Quality & Diversity 52
4.3.5 Experimental Results for FD score 56
4.3.6 Human Evaluation 56
4.3.7 Analyses of Code Space 57
4.4 Conclusion 60
5 SEQUENCE-LEVEL TRAINING OF CONDITIONAL TEXT GENERATION 61
5.1 Introduction 61
5.2 Background 63
5.2.1 Pre-trained Language Model 63
5.2.2 Proximal Policy Optimization 70
5.3 Methods 72
5.3.1 Step One: Token-level Fine-tuning 72
5.3.2 Step Two: Sequence-level Fine-tuning with Question-specific Reward 72
5.4 Experiments 74
5.4.1 Implementation Details 75
5.4.2 Quantitative Analysis 76
5.4.3 Qualitative Analysis 76
5.5 Conclusion 78
6 CONCLUSION 80
7 APPENDIX* 82
7.1 Generated Samples 82
7.2 Comparison of ARAE and ARAE* 84
7.3 Human Evaluation Criteria 85
-
dc.format.extentx, 105-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectDeep Neural Networks-
dc.subjectText Generation-
dc.subjectQuestion Generation-
dc.subject딥 뉴럴넷-
dc.subject텍스트 생성-
dc.subject질문 생성-
dc.subject.ddc621.3-
dc.titleEffective Training Methods for Autoregressive Text Generation-
dc.title.alternative자기회귀모델 기반 텍스트 생성을 위한 효과적인 학습 방법에 관한 연구-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorKIM YANGHOON-
dc.contributor.department공과대학 전기·정보공학부-
dc.description.degree박사-
dc.date.awarded2021-08-
dc.identifier.uciI804:11032-000000166679-
dc.identifier.holdings000000000046▲000000000053▲000000166679▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share