Publications

Detailed Information

Nonparametric Bayesian Online Learning and Variational Gated Recurrent Unit : 비모수 베이지안 온라인 학습 방법과 변분 게이트 순환 유닛

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

정구환

Advisor
김용대
Major
자연과학대학 통계학과
Issue Date
2019-02
Publisher
서울대학교 대학원
Description
학위논문 (박사)-- 서울대학교 대학원 : 자연과학대학 통계학과, 2019. 2. 김용대.
Abstract
Latent variable models provide complex distributions by introducing latent variables, which are not directly observable but affect observable variables.

Two latent variable models are considered in this thesis.

First, we consider a latent variable model having a discrete latent variable, called a mixture model.

Finite mixture models suffer from underfitting or overfitting depending on the choice of the number of components.

In contrast, Dirichlet process (DP) mixture models assume infinitely many components by using a DP prior distribution for the mixing distribution, and the number of occupied components, to which observed data are assigned, can vary during the inference.

We propose an online learning method for DP mixture models to handle large-scale data as well as streaming data with limited computing resources.

Secondly, we consider a latent variable model for sequential data.

As a generative model for sequential data, latent recurrent neural networks (RNNs), which incorporate latent variables in RNNs, have been developed to capture complex dependencies observed in sequential data such as speeches.

We propose a new latent RNN which incorporates a special architecture by adopting the idea of gated recurrent unit.

This architecture enforces latent variables to capture the structural persistency.
잠재변수모형은 직접 관측할 수는 없지만 자료에 영향을 끼치는 잠재변수를 도입하여 자료를 보다 복잡하게 모형화한다.

본 논문에서는 두 가지 잠재변수모형을 다루는데, 첫 번째로 혼합모형이라 불리는 이산 잠재변수를 갖는 잠재변수모형을 다룬다.

유한혼합모형은 성분의 수를 미리 결정해야 하는데, 이 선택에 따라 과소적합 또는 과적합이 발생할 수 있다.

반면에 디리클레과정 혼합모형은 혼합분포에 디리클레과정 사전분포를 사용하여 무한히 많은 성분을 가정하고, 추론 도중에 자료가 점유하고 있는 성분의 수가 변할 수 있다.

본 논문에서는 제한된 컴퓨팅 자원에서 대규모 자료 및 스트리밍 자료를 처리하기 위한 디리클레과정 혼합모형의 온라인 학습 방법을 제안하였다.

두 번째로 순차적인 자료의 잠재변수모형을 다룬다.

순환 신경망은 변동성이 작기 때문에 연설, 문장 또는 음악과 같은 순차적인 자료에서 관찰되는 복잡한 의존성이나 패턴을 모형화하기 어렵다.

최근에는 순환 신경망에 잠재변수를 도입하여 변동성을 증가시키는 많은 연구들이 진행되었다.

본 논문에서는 기존의 잠재 순환 신경망들을 결합하고, 추가적으로 잠재변수가 순차적인 자료 내에 존재하는 구조적 지속성을 포착할 수 있도록 게이트 순환 유닛의 아이디어를 차용하여 특별한 구조를 갖는 잠재 순환 신경망을 제안하였다.
Language
eng
URI
https://hdl.handle.net/10371/152938
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share