Publications

Detailed Information

Deep learning methodologies for semi-supervised and unsupervised cases : 준지도 및 비지도 학습에서의 딥러닝 방법론 연구

DC Field Value Language
dc.contributor.advisor김용대-
dc.contributor.author김동하-
dc.date.accessioned2019-10-21T03:40:56Z-
dc.date.available2020-10-06T07:04:41Z-
dc.date.issued2019-08-
dc.identifier.other000000157815-
dc.identifier.urihttps://hdl.handle.net/10371/162436-
dc.identifier.urihttp://dcollection.snu.ac.kr/common/orgView/000000157815ko_KR
dc.description학위논문(박사)--서울대학교 대학원 :자연과학대학 통계학과,2019. 8. 김용대.-
dc.description.abstractIn this thesis, we propose two learning methodologies for deep learning models.
We consider two cases: semi-supervised learning and unsupervised learning.

In semi-supervised learning, we spell out a new semi-supervised learning method, called GAB, that searches for a decision boundary whose neighborhood overlaps the least with the support of unlabeled data.
We construct a formal measure of the degree of overlap between the neighborhood of a given decision boundary and the support of unlabeled data and develop an algorithm to learn the model, which minimizes this penalty term. We theoretically prove that GAB finds the Bayes classifier successively and devise an algorithm with an approximated penalty term by generating artificial data near the current decision boundary based on an adversarial training technique. We empirically show that GAB not only competes well with the recent studies in prediction power but also requires much smaller computational resources.

In unsupervised learning, we propose a method for generative models maximizing the log-likelihood of observable variables directly by using the EM algorithm and an importance sampling algorithm, instead of employing variational inference. A novel feature of the proposed method is to develop a warm start technique by taking a convex combination of the expected complete log-likelihood and variational lower bound in the E-step, which stabilizes the learning procedure and thus results in superior performance. The proposed learning method called VAEM outperforms other variational methods in terms of the test log-likelihood without increasing computational cost much, generates more sharp and realistic images, and can be easily modified for nonstandard cases such as the presence of missing data which is not obvious for variational methods.
-
dc.description.abstract본 논문은 준지도 학습과 비지도 학습에서 딥러닝 모형을 학습하는 새로운 방법론을 제안한다.

첫째로, 준지도 학습에서는 현재의 분류기의 결정 경계 근방의 인공 자료가 실제 자료와 가능한 겹치지 않는 방향으로 분류기를 학습하는 새로운 준지도 학습 방법을 제시한다. 이를 구현하기 위해 결정 경계 근방과 실제 자료의 중첩 정도를 측정할 수 있는 새로운 지수를 개발하였고, 해당 지수를 최소화하는 방향으로 분류기를 찾는 것을 본 방법론의 목표로 한다. 또한 제안한 중첩 지수를 최소화하는 분류기의 결정 경계는 베이즈 분류기의 결정 경계와 거의 같음을 이론적으로 증명하였다. 중첩 지수의 근사를 위해서는 결정 경계 근방의 인공 자료를 생성하는 과정이 필요한데, 본 논문에서는 대립 훈련 방법을 응용한 인공 자료를 생성하는 방법을 제안한다. 본 연구에서 새롭게 제안한 준지도 방법론이 우수한 분류기를 효율적으로 잘 추정할 수 있음을 다양한 벤치마크 자료들에 적용하여 실험적으로 입증하였다.

둘째로, 비지도 학습에서는 EM 알고리즘과 중요도 표집을 통해 관측 변수의 우도 함수를 직접적으로 최대화하는 학습 방법을 제안한다. 특히 웜 스타트 방법을 응용하여 E-단계에서 로그 결합 우도의 기댓값 함수와 변분 하한 함수의 가중 평균을 사용하는 새로운 방법을 개발하였으며, 제시한 방법이 우수한 모형을 안정적으로 추정할 수 있게 해줌을 실험적으로 증명하였다. 준지도 학습과 마찬가지로 본 연구에서 제안한 비지도 학습 방법론이 타 방법론에 비해 우수한 성능을 가지고 있으며, 결측 자료가 존재할 때에도 잘 적용될 수 있음을 실험적으로 증명하였다.
-
dc.description.tableofcontents1 Introduction 1
2 Estimation algorithm for semi-supervised deep learning 4
2.1 Introduction 4
2.2 Review of existing semi-supervised methods in deep learning 8
2.2.1 DGN 8
2.2.2 Ladder network 9
2.2.3 VAT 10
2.2.4 Bad GAN 11
2.3 Proposed Method 12
2.3.1 Motivation 12
2.3.2 Theoretical Analysis 14
2.3.3 Objective function of GAB 16
2.4 Generation of artificial samples 17
2.4.1 Adversarial training 17
2.4.2 Motivation 18
2.4.3 Artificial sample generation for general classifier 19
2.4.4 Finding adversarial direction 20
2.5 Regularization term 21
2.6 Experiments 22
2.6.1 Prediction performance comparisons 22
2.6.2 Effects of tuning parameters 24
2.6.3 Computational efficiency 26
2.6.4 Quality of artificial samples 26
3 Estimation algorithm of deep generative model 32
3.1 Introduction 32
3.2 Review of existing methods for training deep generative models 36
3.2.1 VAE 36
3.2.2 IWAE 37
3.2.3 HMC-DLGM 38
3.3 Proposed method 39
3.3.1 VAEM for complete data 39
3.3.2 Role of annealing 41
3.3.3 VAEM for incomplete data 43
3.4 Empirical analysis 46
3.4.1 Experimental setup 46
3.4.2 Performance results 47
3.4.3 Image generation 49
3.4.4 Ablation study 49
3.4.5 VAEM for incomplete data 50
4 Conclusions 65
Bibliography 67
A Appendix A. 78
A.1 Proof of Theorem 2.3.1 78
A.2 Proof of proposition 2.4.1 81
A.3 Extension of proposition 1 for the DNN classifier 82
A.4 Model architectures 84
A.4.1 MNIST
A.4.2 SVHN, CIFAR10 and CIFAR100 84
B Appendix B. 86
B.1 Generated Images 86
Abstract (in Korean) 91
-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectSemi-supervised learning-
dc.subjectCluster assumption-
dc.subjectAdversarial training-
dc.subjectGAB-
dc.subjectUnsupervised learning-
dc.subjectEM algorithm-
dc.subjectImportance sampling-
dc.subjectAnnealing strategy-
dc.subjectVAEM-
dc.subject.ddc519.5-
dc.titleDeep learning methodologies for semi-supervised and unsupervised cases-
dc.title.alternative준지도 및 비지도 학습에서의 딥러닝 방법론 연구-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.department자연과학대학 통계학과-
dc.description.degreeDoctor-
dc.date.awarded2019-08-
dc.identifier.uciI804:11032-000000157815-
dc.identifier.holdings000000000040▲000000000041▲000000157815▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share