Browse

자질 정보 임베딩을 결합한 신경망 음소 모델
Neural phoneme models with Feature embedding

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors
장한솔
Advisor
신효필
Issue Date
2020
Publisher
서울대학교 대학원
Keywords
신경망 음소 모델임베딩딥러닝기계학습Neural phoneme modelembeddingdeep-learningmachine learning
Description
학위논문 (석사) -- 서울대학교 대학원 : 인문대학 언어학과, 2020. 8. 신효필.
Abstract
본 연구는 다양한 자연어처리 과제의 해결을 위해 단어 내 정보에 대한 효과적인 신경망 음소 모델을 찾고자 하였다. 신경망 음소 모델을 개선하기 위해 자질(feature) 정보를 자질 임베딩(feature embedding)을 이용하여 반영하였다.
신경망을 이용하여 음소배열제약을 학습한 기존 연구에서는 자질(feature) 정보를 1, -1, 0으로 매핑하여 음소 임베딩을 초기화했다. 이렇게 자질을 반영한 모델은 자질이 반영되지 않은 모델과 비교하여 더 높은 성능을 보여주지 못했다.
이런 자질 정보의 활용을 소극적이라고 보고, 본 연구에서는 자질 임베딩(feature embedding)을 도입하여 각 자질마다의 임베딩을 구축하도록 모델을 설계하였다. 자질 정보를 포함하지 않는 음소 임베딩(phone embedding)을 이용하는 방식, 자질 임베딩만으로 음소 임베딩(phone embedding)을 만드는 음소-자질 임베딩(phone by feature embedding)을 사용하는 방식과 음소-자질 임베딩(phone by feature embedding)에 음소 임베딩(phone embedding)을 결합하는 방식을 실험함으로써 자질 정보의 포함이 모델의 성능을 높일 수 있는지를 알아보고, 자질 정보를 포함하는 최적의 방식을 확인하고자 한다.
실험은 한국어와 영어를 대상으로 진행하였으며, 모델은 트랜스포머 인코더(Transformer Encoder)를 사용하였다. 실험의 결과로 음소-자질 임베딩(phone by feature embedding)만을 활용한 모델이 음소 임베딩(phone embedding)을 사용한 모델보다 평균적으로 4~5%의 성능향상을 보였으며 이 방식이 음소 모델 구축에 효과적임을 확인할 수 있었다.
훈련한 임베딩을 군집화 한 결과로 음소-자질 임베딩(phone by feature embedding)만을 활용하는 방식이 자질 정보를 가장 뚜렷하게 구분하였다. 이는 실험에서 가장 높은 성능을 보인 음소-자질 임베딩(phone by feature embedding)만을 활용하는 방식이 설계의 의도대로 자질(feature) 정보를 반영하였음을 보였다.
The purpose of this thesis is to reveal the usefulnes of feature information in neural network phoneme model.
In previous research, for the aim of comparing feature-aware condition to feature-naive condition in neural network phoneme model, phone embeddings are usualy initialized by mapping feature information to 1, -1, and 0. The model using this initialization did not show higher performance compared to those without feature information.
To make more use of feature information, this study aims to design neural phoneme model by introducing
feature embedding. To ases the obligatorines of phonological distinctive features for phonotactic learning,
experiments have done with thre diferent embedding methods: phone embedding, phone by feature embedding, and phone & feature embedding. It was conducted with English data and Korean data, and base structure of our model is Transformer Encoder.
As the results, the model using phone by feature embedding outperforms the others about 4~5%, sugesting that this knowledge of distinctive features would be regarded as a help rather than a slight hindrance.
As a result of clustering with learned embedding, the model of phone by feature embedding clearly distinguishes the most feature information, which supports the use of feature information is efective in phonotactic learning through neural network.
Language
kor
URI
https://hdl.handle.net/10371/170591

http://dcollection.snu.ac.kr/common/orgView/000000163511
Files in This Item:
Appears in Collections:
College of Humanities (인문대학)Linguistics (언어학과)Theses (Master's Degree_언어학과)
  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse