Publications

Detailed Information

Learning and Analysis of Neural Sentence Representations Using Syntax : 구문론을 활용한 신경망 기반 문장 표현의 학습 및 분석

DC Field Value Language
dc.contributor.advisor이상구-
dc.contributor.author김태욱-
dc.date.accessioned2022-04-05T06:49:20Z-
dc.date.available2022-04-05T06:49:20Z-
dc.date.issued2021-
dc.identifier.other000000166790-
dc.identifier.urihttps://hdl.handle.net/10371/177874-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000166790ko_KR
dc.description학위논문(박사) -- 서울대학교대학원 : 공과대학 컴퓨터공학부, 2021.8. 김태욱.-
dc.description.abstract구문론(syntax)은 언어학의 한 갈래로써, 자연어 문장의 형성 과정에 내포되어 있 는 원리와 그로 인해 촉발되는 여러 언어적 현상을 규정하고 이를 검증하는 연구 분야를 총칭한다. 구문론은 단어, 구 및 절과 같은 문장 내의 구성 요소로부터 해당 문장의 의미를 점진적으로 구축해 나가는 과정에 대한 체계적인 이론적 절차를 제공하며, 따라서 이는 자연어처리에서 문장 표현 학습 및 분석을 위한 방법론을 구상하는데 있어 활용될 수 있는 잠재성을 지니고 있다.

본 논문에서는 신경망 기반의 문장 표현 방법론을 개발하는 데 있어 구문론을 활용하는 두 측면에 관하여 논한다. 먼저, 언어학적인 파스 트리의 형태로 표현되 어 있거나 혹은 타 신경망 모델의 파라미터에 암시적으로 저장되어 있는 구문론적 지식을 도입하여 더 나은 문장 표현을 만드는 보다 직접적인 방법론을 제시한다. 이에 더하여, 구문론에 바탕한 문법적 체계를 이용하여 학습이 완료된 신경망 기반 문장 표현 모델들의 작동 원리를 규명하고 이들의 개선점을 찾는데 도움을 줄 수 있 는 분석적 접근법 또한 소개한다. 실제 환경에서의 다각적인 실험과 검증을 통하여 규칙 및 통계 기반 자연어처리에서 귀중한 자원으로 간주되었던 구문론이 신경망 기반의 모델이 대중적으로 사용되고 있는 현재의 자연어처리에서도 보완재로써 기능할 수 있음을 보인다. 구체적으로, 구문론이 고성능의 문장 표현을 위한 신경 망 모델 혹은 이를 위한 학습 방법론을 개발하는데 있어 효과적인 직관을 제공할 수 있음을 실증하고, 문장 표현 신경망 모델이 자체적으로 파스 트리를 복원해낼 수 있는 능력을 평가함으로써 구문론을 내부 작동 체계가 불명확한 신경망 모델의 작동 원리에 대한 이해도를 증진시키는 분석 도구로 활용한다.
-
dc.description.abstractSyntax is a theory in linguistics that deals with the principles underlying the composition of sentences. As this theoretical framework provides formal instructions regarding the procedure of constructing a sentence with its constituents, it has been considered as a valuable reference in sentence representation learning, whose objective is to discover an approach of transforming a sentence into the vector that illustrates its meaning in a computationally tractable manner.

This dissertation provides two particular perspectives on harmonizing syntax with neural sentence representation models, especially focusing on constituency grammar. We first propose two methods for enriching the quality of sentence embeddings by exploiting the syntactic knowledge either represented as explicit parse trees or implicitly stored in neural models. Second, we regard syntactic formalism as a lens through which we reveal the inner workings of pre-trained language models which are state-of-the-art in sentence representation learning. With a series of demonstrations in practical scenarios, we show that syntax is useful even in the neural era where the models trained with huge corpora in an end-to-end manner are prevalent, functioning as either (i) a source of inductive biases that facilitate fast and effective learning of such models or (ii) an analytic tool that increases the interpretability of the black-box models.
-
dc.description.tableofcontentsChapter 1 Introduction 1

1.1 Dissertation Outline 5

1.2 Related Publications 6

Chapter 2 Background 8

2.1 Introduction to Syntax 8

2.2 Neural Networks for Sentence Representations 10

2.2.1 Recursive Neural Network 11

2.2.2 Transformer 12

2.2.3 Pre-trained Language Models 14

2.3 Related Literature 16

2.3.1 Sentence Representation Learning 16

2.3.2 Probing Methods for Neural NLP Models 17

2.3.3 Grammar Induction and Unsupervised Parsing 18

Chapter 3 Sentence Representation Learning with Explicit Syntactic Structure 19

3.1 Introduction 19

3.2 Related Work 21

3.3 Method 23

3.3.1 Tree-LSTM 24

3.3.2 Structure-aware Tag Representation 25

3.3.3 Leaf-LSTM 28

3.3.4 SATA Tree-LSTM 29

3.4 Experiments 31

3.4.1 General Configurations 31

3.4.2 Sentence Classification Tasks 32

3.4.3 Natural Language Inference 35

3.5 Analysis 36

3.5.1 Ablation Study 36

3.5.2 Representation Visualization 38

3.6 Limitations and Future Work 39

3.7 Summary 40

Chapter 4 Sentence Representation Learning with Implicit Syntactic Knowledge 41

4.1 Introduction 41

4.2 Related Work 44

4.3 Method 46

4.3.1 Contrastive Learning with Self-Guidance 47

4.3.2 Learning Objective Optimization 50

4.4 Experiments 52

4.4.1 General Configurations 52

4.4.2 Semantic Textual Similarity Tasks 53

4.4.3 Multilingual STS Tasks 58

4.4.4 SentEval Benchmark 59

4.5 Analysis 60

4.5.1 Ablation Study 60

4.5.2 Robustness to Domain Shifts 61

4.5.3 Computational Efficiency 62

4.5.4 Representation Visualization 63

4.6 Limitations and Future Work 63

4.7 Summary 65

Chapter 5 Syntactic Analysis of Sentence Representation Models 66

5.1 Introduction 66

5.2 Related Work 68

5.3 Motivation 70

5.4 Method 72

5.4.1 CPE-PLM 72

5.4.2 Top-down CPE-PLM 73

5.4.3 Pre-trained Language Models 74

5.4.4 Distance Measure Functions 76

5.4.5 Injecting Bias into Syntactic Distances 77

5.5 Experiments 78

5.5.1 General Configurations 78

5.5.2 Experimental Results on PTB 80

5.5.3 Experimental Results on MNLI 83

5.6 Analysis 85

5.6.1 Performance Comparison by Layer 85

5.6.2 Estimating the Upper Limit of Distance Measure Functions 86

5.6.3 Constituency Tree Examples 88

5.7 Summary 93

Chapter 6 Multilingual Syntactic Analysis with Enhanced Techniques 94

6.1 Introduction 94

6.2 Related work 96

6.3 Method 97

6.3.1 Chart-based CPE-PLM 97

6.3.2 Top-K Ensemble for CPE-PLM 100

6.4 Experiments 100

6.4.1 General Configurations 100

6.4.2 Experiments on Monolingual Settings 102

6.4.3 Experiments on Multilingual Settings 103

6.5 Analysis 106

6.5.1 Factor Correlation Analysis 108

6.5.2 Visualization of Attention Heads 108

6.5.3 Recall Scores on Noun and Verb Phrases 109

6.6 Limitations and Future Work 110

6.7 Summary 111

Chapter 7 Conclusion 112

Bibliography 116

초록 138
-
dc.format.extentVI, xiv, 138-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectnatural language processing-
dc.subjectmachine learning-
dc.subjectdeep learning-
dc.subjectneural network-
dc.subjectsentence representation-
dc.subjectphrase-structure grammar-
dc.subjectconstituency parse extraction-
dc.subjectunsupervised parsing-
dc.subjectsentence classification-
dc.subjectsemantic textual similarity-
dc.subjectrecursive neural network-
dc.subjectTransformer-
dc.subjectpre-trained language models-
dc.subject자연어처리-
dc.subject기계 및 심층 학습-
dc.subject신경망-
dc.subject문장 표현-
dc.subject구문론-
dc.subject비지도 파싱-
dc.subject문장 분류-
dc.subject문장 유사도 측정-
dc.subject재귀신경망-
dc.subject트랜스포머-
dc.subject사전학습 언어모델-
dc.subject.ddc621.39-
dc.titleLearning and Analysis of Neural Sentence Representations Using Syntax-
dc.title.alternative구문론을 활용한 신경망 기반 문장 표현의 학습 및 분석-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorTAEUK KIM-
dc.contributor.department공과대학 컴퓨터공학부-
dc.description.degree박사-
dc.date.awarded2021-08-
dc.identifier.uciI804:11032-000000166790-
dc.identifier.holdings000000000046▲000000000053▲000000166790▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share