Publications

Detailed Information

Robust Feature Learning with Deep Neural Networks : 깊은 신경망을 이용한 강인한 특징 학습

DC Field Value Language
dc.contributor.advisor윤성로-
dc.contributor.authorTaehoon Lee-
dc.date.accessioned2017-07-13T07:17:18Z-
dc.date.available2017-07-13T07:17:18Z-
dc.date.issued2016-08-
dc.identifier.other000000137163-
dc.identifier.urihttps://hdl.handle.net/10371/119221-
dc.description학위논문 (박사)-- 서울대학교 대학원 : 전기·컴퓨터공학부, 2016. 8. 윤성로.-
dc.description.abstract최근 기계 학습의 발전으로 인공 지능은 우리에게 한 걸음 더 가까이 다가오게 되었다. 특히 자율 주행이나 게임 플레이 등 최신 인공 지능 프레임워크들에 있어서, 딥 러닝이 중요한 역할을 하고 있는 상황이다. 딥 러닝이란 multi-layered neural networks 과 관련된 기술들을 총칭하는 용어로서, 데이터의 양이 급속하게 증가하며, 사전 지식들이 축적되고, 효율적인 학습 알고리즘들이 개발되며, 고급 하드웨어들이 만들어짐에 따라 빠르게 변화하고 있다. 현재 딥 러닝은 대부분의 인식 문제에서 최첨단 기술로 활용되고 있다.

여러 레이어로 구성된 깊은 신경망은 많은 양의 파라미터를 학습하기 때문에, 방대한 파라미터 집합 속에서 좋은 해를 효율적으로 찾아내는 것이 중요하다. 본 논문에서는 깊은 신경망의 세 가지 이슈에 대해 접근하며, 그것들을 해결하기 위한 regularization 기법들을 제안한다. 첫째로, 신경망 구조는 adversarial perturbations 이라는 내재적인 blind spots 들에 많이 노출되어 있다. 이러한 adversarial perturbations 에 강인한 신경망을 만들기 위하여, 학습 샘플과 그것의 adversarial perturbations 와의 차이를 최소화하는 manifold loss term을 목적 함수에 추가하였다. 둘째로, restricted Boltzmann machines 의 학습에 있어서, 상대적으로 작은 크기를 가지는 클래스를 학습하는 데에 기존의 contrastive divergence 알고리즘은 한계점을 가지고 있었다. 본 논문에서는 작은 클래스에 더 높은 학습 가중치를 부여하는 boosting 개념과 categorical features를 가진 데이터에 적합한 새로운 regularization 기법을 조합하여 기존의 한계점에 접근하였다. 마지막으로, 신경망의 파라미터를 학습하기에 충분하지 않은 데이터가 주어진 경우, 더 정교한 data augmentation 기법을 다룬다. 샘플의 차원이 많을수록, 데이터 생성의 기저에 깔려있는 사전 지식을 활용하여 augmentation을 하는 것이 더욱 더 필요하다.

나아가, 본 논문은 junction splicing signals 학습을 위한 첫 번째 깊은 신경망 모델링 결과를 제시하고 있다. Junction prediction 문제는 positive 샘플 수가 매우 적어 패턴 모델링이 힘들며, 이는 생명정보학 분야에서 가장 중요한 문제 중 하나로서, 전체 gene expression process 를 이해하는 첫 걸음이라고 할 수 있다. 요약하면, 본 논문은 딥 러닝으로 이미지와 대용량 유전체 데이터를 위한 효과적인 표현법을 학습할 수 있는 regularization 기법들을 제안하였으며, 유명한 벤치마크 데이터와 biomedical imaging 데이터를 사용하여 그 실효성을 검증하였다.
-
dc.description.abstractRecent advances in machine learning continue to bring us closer to artificial intelligence. In particular, deep learning plays a key role in cutting-edge frameworks such as autonomous driving and game playing. Deep learning refers to a class of multi-layered neural networks, which is rapidly evolving as the amount of data increases, prior knowledge builds up, efficient training schemes are being developed, and high-end hardwares are being build. Currently, deep learning is a state-of-the-art technique for most recognition tasks.

As deep neural networks learn many parameters, there has been a variety of attempts to obtain reasonable solutions over a wide search space. In this dissertation, three issues in deep learning are discussed and approaches to solve them with regularization techniques are suggested. First, deep neural networks expose the problem of intrinsic blind spots called adversarial perturbations. Thus, we must construct neural networks that resist the directions of adversarial perturbations by introducing an explicit loss term to minimize the differences between the original and adversarial samples. Second, training restricted Boltzmann machines show limited performance when handling minority samples in class-imbalanced datasets. Our approach addresses this limitation and is combined with a new regularization concept for datasets that have categorical features. Lastly, insufficient data handling is required to be more sophisticated when deep networks learn numerous parameters. Given high-dimensional samples, we must augment datasets with adequate prior knowledge to estimate a high-dimensional distribution.

Furthermore, this dissertation shows the first application of deep belief networks to identifying junction splicing signals. Junction prediction is one of the major problems in the field of bioinformatics, and is a starting point to understanding the entire gene expression process. In summary, this dissertation proposes a set of deep learning regularization schemes that can learn the meaningful representation underlying large-scale genomic datasets and image datasets. The effectiveness of these methods was confirmed with a number of experimental studies.
-
dc.description.tableofcontentsChapter 1 Introduction 1
1.1 Deep neural networks 1
1.2 Issue 1: adversarial examples handling 3
1.3 Issue 2: class-imbalance handling 5
1.4 Issue 3: insufficient data handling 5
1.5 Organization 6

Chapter 2 Background 10
2.1 Basic operations for deep networks 10
2.2 History of deep networks 12
2.3 Modern deep networks 14
2.3.1 Contrastive divergence 16
2.3.2 Deep manifold learning 18

Chapter 3 Adversarial examples handling 20
3.1 Introduction 20
3.2 Methods 21
3.2.1 Manifold regularized networks 21
3.2.2 Generation of adversarial examples 25
3.3 Results and discussion 26
3.3.1 Improved classification performance 28
3.3.2 Disentanglement and generalization 30
3.4 Summary 33

Chapter 4 Class-imbalance handling 35
4.1 Introduction 35
4.1.1 Numerical interpretation of DNA sequences 37
4.1.2 Review of junction prediction problem 41
4.2 Methods 44
4.2.1 Boosted contrastive divergence with categorical gradients 44
4.2.2 Stacking and fine-tuning 46
4.2.3 Initialization and parameter setting 47
4.3 Results and discussion 47
4.3.1 Experiment preparation 47
4.3.2 Improved prediction performance and runtime 49
4.3.3 More robust prediction by proposed approach 51
4.3.4 Effects of regularization on performance 53
4.3.5 Efficient RBM training by boosted CD 54
4.3.6 Identification of non-canonical splice sites 57
4.4 Summary 58

Chapter 5 Insufficient data handling 60
5.1 Introduction 60
5.2 Backgrounds 62
5.2.1 Understanding comets 62
5.2.2 Assessing DNA damage from tail shape 65
5.2.3 Related image processing techniques 66
5.3 Methods 68
5.3.1 Preprocessing 70
5.3.2 Binarization 70
5.3.3 Filtering and overlap correction 72
5.3.4 Characterization and classification 75
5.4 Results and discussion 76
5.4.1 Test data preparation 76
5.4.2 Binarization 77
5.4.3 Robust identification of comets 79
5.4.4 Classification 81
5.4.5 More accurate characterization by DeepComet 82
5.5 Summary 85

Chapter 6 Conclusion 87
6.1 Dissertation summary 87
6.2 Future work 89

Bibliography 91
-
dc.formatapplication/pdf-
dc.format.extent5176092 bytes-
dc.format.mediumapplication/pdf-
dc.language.isoen-
dc.publisher서울대학교 대학원-
dc.subjectmachine learning-
dc.subjectdeep learning-
dc.subjectmanifold learning-
dc.subjectdeep neural networks-
dc.subjectconvolutional neural networks-
dc.subjectrestricted Boltzmann machines-
dc.subjectregularization-
dc.subjectbioinformatics-
dc.subjectsplice junction prediction-
dc.subjectboosting-
dc.subjectclass imbalance-
dc.subjectbiomedical imaging-
dc.subjectdata augmentation-
dc.subject.ddc621-
dc.titleRobust Feature Learning with Deep Neural Networks-
dc.title.alternative깊은 신경망을 이용한 강인한 특징 학습-
dc.typeThesis-
dc.contributor.AlternativeAuthor이태훈-
dc.description.degreeDoctor-
dc.citation.pages106-
dc.contributor.affiliation공과대학 전기·컴퓨터공학부-
dc.date.awarded2016-08-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share