Publications

Detailed Information

Probing the Linguistic Knowledge of BERT based on the Layer-wise Investigation with Affinity Prober : Affinity Prober를 활용한 BERT 언어 지식의 레이어 별 탐침 연구

DC Field Value Language
dc.contributor.advisor신효필-
dc.contributor.author장동준-
dc.date.accessioned2023-11-20T04:46:49Z-
dc.date.available2023-11-20T04:46:49Z-
dc.date.issued2023-
dc.identifier.other000000179160-
dc.identifier.urihttps://hdl.handle.net/10371/197229-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000179160ko_KR
dc.description학위논문(석사) -- 서울대학교대학원 : 인문대학 언어학과, 2023. 8. 신효필.-
dc.description.abstractTransformer(Vawsani et al., 2017)의 등장 이후 Self Attention 기제를 사용한 다양한 사전학습 언어모델(Pre-trained Language Model)이 제안되었다. 이러한 사전학습 언어 모델은 일반적으로 미세조정(fine-tuning)을 통해 다양한 자연어 처리 문제에서 높은 성능을 보여왔다. 언어학 분야에서는 언어 모델의 내재적 언어 지식을 탐구하기 위해 통사론, 의미론, 언어 습득 등의 이론 및 실험 언어학 접근법을 기반으로 활발히 연구되고 있다. 본 논문은 Jang et al (2022)에서 제안한 언어 지식 탐침 방법론인 Affinity Prober의 사용 범주를 확장시키는 것을 목표로 한다. 이를 위해 self-attention mechanism에서 어텐션 스코어 값을 보존하며 토큰 간의 관계를 해석하는 알고리즘인 ADTRAS 알고리즘 (An Algorithm for Decrypting Token Relationships within Attention Scores)을 제안한다. 본 논문은 ADTRAS 알고리즘을 활용하여 첫 번째 실험에서 GLUE 벤치마크 내의 통사-의미적 기능을 요구하는 6가지 태스크에 각각 훈련된 BERT 모형의 레이어 패턴을 분석한다. 이를 통해 BERT 모형이 토큰 관계의 유의미한 변화를 포착하고, ADTRAS 알고리즘을 활용하여 BERT 어텐션 변화를 기반으로 BERT 모델이 스스로 어휘 범주(Lexical Category)를 활용하여 품사 정보를 학습한다는 실증적인 증거를 제시한다. 또한 어휘 범주를 중심으로 BERT 레이어의 분명한 언어학적 특징을 일반화한다. 두 번째 실험으로는 Affinity Prober를 활용하여 통사적 언어현상에서의 최소쌍 문장을 처리하는 BERT의 특징을 분석한다. 이 실험은 사용된 15가지의 통사적 언어현상이 BERT 모델에서 처리되는 과정을 Affinity Prober를 활용하여 탐구하여 레이어 별 패턴을 분석하는 것을 목적으로 한다. 이러한 실험 결과로 총 네 가지의 패턴이 관찰되었는데, 본 논문은 관찰된 패턴이 각각 유사한 언어현상 별로 묶인다고 주장한다. 첫 번째 패턴은 Passive와 Ellipsis N-bar와 관련된 언어현상들이 주를 이루며, 두 번째 패턴은 Island Effects, 세 번째 패턴은 Movement에서의 Syntactic Constraints에서의 언어현상, 마지막으로 네 번째 패턴에서는 Verb Predicate Types과 논항 구조에서의 언어현상들로 나타난다. 이러한 각 레이어 별 패턴이 ADTRAS 알고리즘에서의 결과와 일치한다는 점에서 본 실험을 통해 도출된 결과를 뒷받침한다. 요약하자면, 본 논문은 ADTRAS 알고리즘을 제안하고, Jang et al (2022)에서 제안한 Affinity Prober를 확장하여 연구에 활용하였다. 이 과정에서 통사적 언어현상의 BERT 레이어 별 패턴을 성공적으로 추출하여 결과를 설명하고자 노력하였다.-
dc.description.abstractThis paper presents a comprehensive investigation into the linguistic knowledge embedded within BERT, a pre-trained language model based on the Transformer architecture. We reinforce and expand upon the methodology proposed by Jang et al (2022) by introducing the ADTRAS algorithm (An Algorithm for Decrypting Token Relationships within Attention Scores), which decrypts token relationships within BERT's attention scores to analyze patterns at each layer. Our experiments using ADTRAS algorithm demonstrate that BERT autonomously learns part-of-speech information by leveraging lexical categories. We also provide insights into the general tendencies of BERT's layers when processing content words and function words. Additionally, we introduce the Classification of Sentence Sequencing (CSS) as a Finetuning Strategy, enabling indirect learning from minimal pairs, and leverage the Affinity Prober to examine syntactic linguistic phenomena using the BLiMP dataset. By tracing patterns and clustering similar phenomena, we enhance our understanding of BERT's interpretation of linguistic structures. Furthermore, we establish in detail the attributes of BERT layers related to lexical categories by connecting the general tendencies of the layers generalized by the ADTRAS algorithm with the results obtained through the Affinity Prober. Our study makes several contributions. First, we introduce the ADTRAS algorithm, which enables a comprehensive analysis of BERT's linguistic knowledge. Second, we provide experimental evidence demonstrating BERT's ability to learn part-of-speech information. Third, we offer insights into the tendencies observed in different layers of BERT. Fourth, we propose the CSS Finetuning Strategy, which allows for indirect learning from minimal pairs. Fifth, we successfully cluster syntactic phenomena using the Affinity Prober. Finally, we uncover the general attention tendency of BERT towards lexical categories.-
dc.description.tableofcontentsChapter 1. Introduction 1

Chapter 2. Related Work 5
2.1. Unveiling Linguistic Insights: The Probing Classifier Framework 6
2.2. The Interplay of Syntactic Tree and Neural Networks 7
2.3. BERT and Linguistics 7

Chapter 3. Generalization of Layer-Wise Attention Using ADTRAS Algorithm 10
3.1. Binary Categorization of Part-of-Speech in Sentences: Content Words and Function Words 10
3.2. ADTRAS Algorithm 13
3.3. The General Language Understanding Evaluation (GLUE) Benchmark 16
3.3.1 The Corpus of Linguistic Acceptability (CoLA) 16
3.3.2 The Microsoft Research Paraphrase Corpus (MRPC) 17
3.3.3 The Stanford Sentiment Treebank 2.0 (SST-2) 17
3.3.4 The Quora Question Pairs (QQP) 18
3.3.5 The Multi-Genre Natural Language Inference (MNLI) 18
3.3.6 The Words in Context (WiC) 19
3.3.7 Summary 19
3.4. Evaluating Attention Variations in Lexical Categories on NLU tasks 20
3.4.1 Intrinsic Learning of Lexical Categories in BERT for Downstream Tasks 21
3.4.2 Generalization of Layer-Wise Attention in Fine-Tuned BERT Models 23

Chapter 4. Probing Intrinsic Linguistic Knowledges of Deep Learning-based Language Model using Affinity Prober 23
4.1. Jang et al (2022) 24
4.2. Affinity Prober 26
4.2.1 Multi-Head Attention on Transformer Architecture 26
4.2.2 Affinity Relationship 27
4.2.3 Probabilistic Distribution of Categorized Affnity Relationships 28
4.2.4 The Algorithm of Affinity Prober on BERT 29

Chapter 5. The Benchmark of Linguistic Minimal Pairs (BLiMP) 33
5.1. Adjunct Island 34
5.2. Animate Subject 35
5.2.1. Animate Subject Passive 35
5.2.2. Animate Subject Trans 35
5.3. Causative 36
5.4. Complex NP Island 37
5.5. Coordinate Structure Constraint 38
5.5.1. Left Branch 38
5.5.2. Object Extraction 39
5.6. Drop Argument 40
5.7. Ellipsis N-bar 41
5.8. Inchoative 42
5.9. Intransitive 43
5.10. Transitive 44
5.11. Left Branch Island 44
5.11.1. Echo Question 44
5.11.2. Simple Question 45
5.12. Passive 46
5.13. Sentential Subject Island 47
5.14. Wh Island 48
5.15. Wh Questions 49
5.15.1. Object Gap 49
5.15.2. Subject Gap 50

Chapter 6. Experiment 51
6.1. Finetuning Strategy 51
6.2. Result: Clustering of Similar Linguistic Phenomena 53
6.2.1. Group I: Passive and Ellipsis N-bar 54
6.2.2. Group II: Island Effects 58
6.2.3. Group III: Syntactic Constraints on Movement 62
6.2.4. Group IV: Verbal Predicate Types and Argument Structures 66
6.3. Summary 72

Chapter 7. Conclusion 73

Reference 76
Appendix. 79
Abstract (In Korean) 98
-
dc.format.extentviii, 98-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subject"Natural Language Processing"-
dc.subject"BERT"-
dc.subject"linguistic knowledge"-
dc.subject"ADTRAS algorithm"-
dc.subject"part-of-speech"-
dc.subject"lexical categories"-
dc.subject"layer tendencies"-
dc.subject"content words"-
dc.subject"function words"-
dc.subject"Classification of Sentence Sequencing (CSS)"-
dc.subject"Finetuning Strategy"-
dc.subject"Affinity Prober"-
dc.subject"syntactic linguistic phenomena"-
dc.subject"BLiMP dataset"-
dc.subject.ddc401-
dc.titleProbing the Linguistic Knowledge of BERT based on the Layer-wise Investigation with Affinity Prober-
dc.title.alternativeAffinity Prober를 활용한 BERT 언어 지식의 레이어 별 탐침 연구-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorJang, Dong-jun-
dc.contributor.department인문대학 언어학과-
dc.description.degree석사-
dc.date.awarded2023-08-
dc.contributor.major컴퓨터언어학-
dc.identifier.uciI804:11032-000000179160-
dc.identifier.holdings000000000050▲000000000058▲000000179160▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share