Publications

Detailed Information

Neural Network Design and Acceleration for Resource-constrained Environments : 한정된 자원 환경을 위한 인공신경망 설계 및 가속

DC Field Value Language
dc.contributor.advisor윤성로-
dc.contributor.author최혁준-
dc.date.accessioned2022-12-29T07:41:48Z-
dc.date.available2022-12-29T07:41:48Z-
dc.date.issued2022-
dc.identifier.other000000173830-
dc.identifier.urihttps://hdl.handle.net/10371/187738-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000173830ko_KR
dc.description학위논문(박사) -- 서울대학교대학원 : 공과대학 전기·정보공학부, 2022. 8. 윤성로.-
dc.description.abstractDeep learning methods have become very successful in various applications due to the availability of exponentially growing data and powerful computing resources. Due to remarkable performance, neural model has been applied to various edge devices such as mobile and embedded system. These edge devices usually suffer from constrained resources including computation and energy. To overcome this challenge, low-latency model design, model compression and acceleration are widely researched on both hardware and software side. In this dissertation, we introduce two methods with regard to low-latency model design on algorithm side. Designing compact and low-latency model is important to reduce required resources. For this reason, in aspect of algorithm, we introduced two model design methodology with neural architecture search (NAS) to find compact model: cell-based NAS and graph variational auto-encoder based NAS. Our cell-based NAS approach is based on Differentiable ARchiTecture Search (DARTS) which is well-known differentiable NAS method. Despite the popularity of DARTS, it has been reported that DARTS often shows unrobustness and sub-optimality. Through extensive theoretical analysis and empirical observations, we reveal that this issue occurs as a result of the existence of unnormalized operations. Based on our finding, we propose a novel variancestationary differentiable architecture search (VS-DARTS). VS-DARTS makes the architecture parameters a more reliable metric for deriving a desirable architecture without increasing the search cost. In addition, we derive comparable architecture using VS-DARTS with soft constrained latency objectives. Another approach to find low-latency model is using graph generative models, which has been recently focused because of their efficiency. We proposed novel graph variational auto-encoder (VAE)which shows dramatically improvements on cell-based search space. After our graph VAE extracted architectural information from the neural architecture, we conducted novel multi-objective NAS using extracted information for hardware-constrained environments. We showed that the proposed multi-objective NAS can derive various models close to Pareto optimal between latency and accuracy. Also, we evaluated our proposed method on various hardware platforms. In summary, this dissertation proposes two methods for improving performance of NAS, which can use compact and low-latency neural model for computing resource-constrained environments. The proposed methods were evaluated with various experimental studies.-
dc.description.abstract딥러닝은 빅데이터와 강력한 병렬 프로세서가 사용 가능해지면서 다양한 분야에서 성공적인 모습을 보여주고 있으며, 모바일과 임베디드 시스템 같은 엣지 디바이스에도 다양하게 적용되고 있다. 그러나, 엣지 디바이스는 일반적으로 컴퓨팅 및 전력 자원이 부족한 환경이다. 이를 해결하기 위해서, 저-레이턴시 모델 디자인, 모델 압축 기법과 뉴럴 모델 가속 등이 알고리즘과 하드웨어 양쪽 측면에서 활발하게 연구되고 있다. 본 논문에서는 알고리즘 측면에서 저-레이턴시 모델 디자인을위한 두 가지 새로운 방법론을 제시한다. 필요한 컴퓨팅 자원을 줄이기 위해서는 먼저 컴팩트하고 레이턴시가 작은 모델을 디자인하는 것이 중요하므로, 알고리즘 측면에서 우리는 두가지 신경구조탐색을 이용한 모델 디자인 방법론을 제시하였다: 셀 기반 신경구조탐색과 그래프 배리에이셔널 오토인코더를 이용한 신경구조탐색이다. 본 학위논문의 셀 기반 신경구조탐색은 널리 알려진 differentiable NAS 방법론인 DARTS (Differentiable ARchiTecture Search)에 기반한다. DARTS는 여러 연구에서 베이스라인 방법론으로 널리 사용되고 있음에도 불구하고, 종종 학습 불안정성과 최적화가 부족하다는 점이 이미 보고된 바 있으나 그 근본적인 원인에대해서는 일부 밝혀지지 않았었다. 우리는 이론적 분석과 관찰을 통해서 그 근본적인 문제가 각 오퍼레이션의 정규화되지 않은 출력에 기인하는 것을 밝히고, 이 문제점을 해결할 수 있는 방법론인 VS-DARTS (variance stationary DARTS)를 제안하였다. VS-DARTS는 구조 변수(architectural parameter)의 신뢰성을 높여서 탐색 비용을 늘이지 않고 성능을 높였다. 또한, 우리는 VS-DARTS에 레이턴시에 대한연성 제약(soft constraint)을 적용함으로써 기존 셀 기반 방법론에 비견되는 성능의 구조를 탐색하였다. 또 다른 저 레이턴시 모델을 찾는 접근 방법으로는 그래프 생성모델(graph generative model)을 적용하였다. 우리는 새로운 그래프 배리에이셔널 오토인코더 (graph variational auto-encoder) 방법론을 제안하여 셀 기반 탐색 공간에 대한 오토인코더 성능을 크게 향상시켰다. 이후, 제안한 배리에이셔널 오토인코더를 이용하여 뉴럴 구조의 임베딩 정보를 추출하고, 추출된 구조 임베딩 정보를 새로이 제안한 다중목적탐색(multi-objective search)에 이용하여 레이턴시-정확도에서 파레토 최적(Pareto optimal)에 가까운 구조들을 찾을 수 있음을 보였다. 또한 제안한 신경구조탐색 방법론을 다양한 하드웨어 플랫폼 상에서 검증하였다. 요약하면, 본 학위논문에서는 보다 컴팩트하고 레이턴시가 작은 모델을 찾는데 사용할 수 있는 신경구조탐색 방법론을 두가지 제안하였고, 이를 이용하여 컴퓨팅 자원이 부족한 환경을 위한 인공 신경망의 자동 설계 방법에 관하여 기술하였으며, 다양한 실험을 통해서 검증하였다.-
dc.description.tableofcontents1 Introduction 1
2 Background 7
2.1 Neural Architecture Search 7
2.1.1 Previous Works on Differentiable NAS 7
2.1.2 Preliminaries on DARTS 8
2.2 Graph Variational Auto-Encoder 10
2.2.1 Graph Representation Learning . 10
2.2.2 Variational Auto-encoder for Graph. 10
2.2.3 Neural Architecture Search (NAS) with Generative Models 11
2.2.4 Preliminaries on VAE for DAGs 12
3 Neural architecture search for resource-constrained environment 15
3.1 Introduction 15
3.2 Issue of DARTS Architecture Parameter 17
3.3 Lack of Reliability of β 18
3.4 Variance-stationary DARTS (VS-DARTS) 21
3.4.1 Node Normalization 21
3.4.2 Remedying Gradient Imbalance 22
3.4.3 β-Continuous Relaxation 23
3.5 Experimental Results 28
3.5.1 Settings 28
3.5.2 Results in DARTS Search Space 30
3.5.3 Results in RobustDARTS Search Space 33
3.5.4 Ablation Study 34
3.6 Summary 35
4 Platform-aware Neural Architecture Search with Graph Variational AutoEncoder 37
4.1 Introduction 37
4.2 Proposed Methods on Graph Variational Auto-Encoder 39
4.2.1 Fail Case Study 39
4.2.2 Proposed Update Function 41
4.2.3 Observer Node 43
4.3 Proposed Predictor-based Multi-objective NAS 43
4.3.1 Training Graph VAE (Step 1) 43
4.3.2 Search Process (Step 2) 46
4.3.3 Return the set of the searched architectures (line 21-22) 47
4.4 Experimental Results 47
4.4.1 Settings 47
4.4.2 VAE Performance Comparison 48
4.4.3 Pre-predictor 50
4.4.4 Search Performance Comparison 50
4.5 Discussions 51
4.5.1 Node Index Order in DAG VAE 51
4.5.2 Model size reduction while keep the reconstructive performance 51
4.5.3 Convergence Acceleration 52
4.6 Summary 52
5 Conclusion 57
Bibliography 58
Abstract (In Korean) 72
-
dc.format.extentx, 73-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectDeepLearning-
dc.subjectDeepNeuralNetwork-
dc.subjectEnergyEfficiency-
dc.subjectNeuralArchitectureSearch-
dc.subjectHardware-awareNAS-
dc.subject.ddc621.3-
dc.titleNeural Network Design and Acceleration for Resource-constrained Environments-
dc.title.alternative한정된 자원 환경을 위한 인공신경망 설계 및 가속-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorHYEOKJUN CHOE-
dc.contributor.department공과대학 전기·정보공학부-
dc.description.degree박사-
dc.date.awarded2022-08-
dc.identifier.uciI804:11032-000000173830-
dc.identifier.holdings000000000048▲000000000055▲000000173830▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share