Publications

Detailed Information

상식 질의응답 모델을 위한 알버트 기반 텍스트 인코더와 지식 그래프 인코더의 결합 : Integration of ALBERT-based Text Encoder and Knowledge Graph Encoder for Commonsense QA Models

DC Field Value Language
dc.contributor.advisor김형주-
dc.contributor.author최병민-
dc.date.accessioned2020-10-13T02:57:51Z-
dc.date.available2020-10-13T02:57:51Z-
dc.date.issued2020-
dc.identifier.other000000163339-
dc.identifier.urihttps://hdl.handle.net/10371/169348-
dc.identifier.urihttp://dcollection.snu.ac.kr/common/orgView/000000163339ko_KR
dc.description학위논문 (석사) -- 서울대학교 대학원 : 공과대학 컴퓨터공학부, 2020. 8. 김형주.-
dc.description.abstract최근 BERT를 비롯한 사전학습 언어 표현 모델이 상식 질의응답에서도 좋은 성과를 내고 있으나, 모델이 외부에 존재하는 지식원의 명시적인 정보를 직접 사용하지 못하는 문제가 존재한다. 이를 보완하기 위해 KagNet이나 MHGRN 등과 같이 외부의 지식 그래프를 추가로 활용하는 방법이 제안되었다.
본 연구에서는 상식 질의응답 문제에 대하여 이러한 기존의 방법을 최신 언어 표현 모델에 적용하고, 스키마 그래프 확장이라는 새로운 기법을 추가하여 다양한 실험을 수행하였다.
이를 통해 본 논문은 최신 언어 표현 모델에 지식 그래프 기반의 지식 추출 기법을 도입함에 따른 효과를 분석하고, 스키마 그래프 확장이 일부 경우에 효과가 있다는 것을 확인하며, 더 나아가 본 논문에서 제안하는 모델이 상식 질의응답 데이터셋인 CommonsenseQA에서 기존의 최고 성능을 능가하는 결과를 얻을 수 있음을 보인다.
-
dc.description.abstractRecently, pre-trained language representation models such as BERT has been performing well in commonsense QA tasks. But there is a problem that the models does not directly use explicit information of knowledge sources existing outside. To augment this, additional methods such as KagNet and MHGRN have been proposed.
In this study, we conducted various experiments on a commonsense QA task by applying the existing techniques of extracting information from knowledge graphs and the novel method, schema graph expansion to recent language expression models.
And we analyzes the effect of applying knowledge graph-based knowledge extraction techniques to recent language expression models, confirms that schema graph expansion is effective in some cases, and furthermore, shows that the proposed models can achieve the state-of-the-arts performance in CommonsenseQA dataset.
-
dc.description.tableofcontents제 1 장 서 론 1
제 2 장 배경 지식 4
2.1 지식 표현 4
2.1.1 지식 그래프 5
2.1.2 ConceptNet 6
2.2 자연어 임베딩 7
2.2.1 단어 임베딩 7
2.2.2 문장 임베딩 8
2.2.3 사전학습 언어 표현 모델 8
2.3 그래프 임베딩 10
2.3.1 그래프 신경망 10
2.3.2 그래프 합성곱 신경망 11
제 3 장 관련 연구 12
3.1 KagNet 12
3.2 MHGRN 13
3.3 AMS 13
제 4 장 제안 모델 15
4.1 기존 방법의 한계 15
4.2 모델 구조 16
4.2.1 지식 추출기 17
4.2.2 텍스트 인코더 18
4.2.3 그래프 인코더 19
4.2.4 분류기 19
4.3 스키마 그래프 확장 20
제 5 장 실 험 21
5.1 실험 환경 21
5.2 데이터셋 22
5.3 구현 23
5.4 실험 방법 24
5.5 실험 결과 24
제 6 장 결론 및 향후 연구 30
참고문헌 32
부 록 36
Abstract 37
-
dc.language.isokor-
dc.publisher서울대학교 대학원-
dc.subject상식 추론-
dc.subject질의응답-
dc.subject지식 그래프-
dc.subject언어 표현 모델-
dc.subjectCommonsense reasoning-
dc.subjectQuestion answering-
dc.subjectKnowledge graph-
dc.subjectLanguage representation model-
dc.subject.ddc621.39-
dc.title상식 질의응답 모델을 위한 알버트 기반 텍스트 인코더와 지식 그래프 인코더의 결합-
dc.title.alternativeIntegration of ALBERT-based Text Encoder and Knowledge Graph Encoder for Commonsense QA Models-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorByeongmin Choi-
dc.contributor.department공과대학 컴퓨터공학부-
dc.description.degreeMaster-
dc.date.awarded2020-08-
dc.identifier.uciI804:11032-000000163339-
dc.identifier.holdings000000000043▲000000000048▲000000163339▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share