Publications

Detailed Information

Optimizing Machine Learning Inference Systems with White Box Approaches : White Box 방식을 통한 머신러닝 추론 시스템 최적화

DC Field Value Language
dc.contributor.advisor전병곤-
dc.contributor.author이윤성-
dc.date.accessioned2020-05-19T08:03:10Z-
dc.date.available2020-05-19T08:03:10Z-
dc.date.issued2020-
dc.identifier.other000000160797-
dc.identifier.urihttps://hdl.handle.net/10371/168000-
dc.identifier.urihttp://dcollection.snu.ac.kr/common/orgView/000000160797ko_KR
dc.description학위논문(박사)--서울대학교 대학원 :공과대학 컴퓨터공학부,2020. 2. 전병곤.-
dc.description.abstractMachine Learning inference systems support user-facing services and have strict performance requirements. Specifically, the systems need to provide low latency, high throughput, while using minimal resources. The simplest way to deploy models is wrapping the models into black boxes such as containers. This approach eases deployment but possible optimizations are limited making its performance sub-optimal as we want to run many models together sharing resources.
In this dissertation, we propose a white box model serving, which enables both end-to-end and multi-model optimizations; models are restructured to an optimized execution plan and resources are shared among the models running together. We introduce Pretzel, our implementation of the white box approach. Our evaluation with production-scale model pipelines shows that white box optimizations can introduce performance improvements with respect to the latency, memory footprint, and throughput, compared to the state-of-the-art systems in the black box approaches.
-
dc.description.abstract머신러닝 추론 시스템은 사용자 서비스를 대상으로 하기 때문에 엄격한 성능 요구 사항이 있으며, 구체적으로는 낮은 지연시간 (latency), 높은 처리량 (throughput), 적은 자원 사용을 제공해야 한다. 가장 단순한 방법은 학습된 모델을 컨테이너와 같은 블랙 박스 형태로 배포하여 추론을 수행하는 것이다. 이 방법은 배포 과정을 쉽게 하지만, 적용 가능한 최적화의 범위가 제한되어 있기 때문에 자원을 공유하 면서 많은 모델을 수행하고자 하는 환경에서는 최적의 성능을 제공하지 못한다.
본 논문에서는 화이트 방식의 머신러닝 추론 시스템을 제안한다. 이 방식은 모 델 전체 (end-to-end)와 다중 모델 (multi-model) 최적화를 가능하게 하는데, 모델 구조를 재정비하여 최적화된 수행 계획을 만들고, 동시에 수행되는 여러 모델이 자원을 효율적으로 공유하도록 한다. 이어서 화이트 박스 방식을 구현한 시스템 Pretzel 에 대해서 소개한다. 실제 프로덕션 환경과 유사한 규모의 모델 파이프라 인을 사용한 실험을 통해 기존 블랙 박스 방식 시스템 대비 화이트 방식의 최적화가 지연시간 (latency), 메모리 사용 (memory footprint), 처리량 (throughput) 면에서 큰 성능 향상을 보이는 것을 보였다.
-
dc.description.tableofcontentsChapter 1 Introduction 1

Chapter 2 Background 5
2.1 Machine Learning Pipelines 5
2.2 ML.NET 7
2.3 Black Box Model Serving 8

Chapter 3 White Box Model Serving 12
3.1 Motivation: Limitations of Black Box Approaches 12
3.1.1 Memory Waste 12
3.1.2 Prediction Initialization 14
3.1.3 Infrequent Accesses 14
3.1.4 Operator-at-a-time Model 15
3.1.5 Coarse Grained Scheduling 16
3.2 Design Principles 17
3.2.1 White Box Prediction Serving 17
3.2.2 End-to-end Optimizations 17
3.2.3 Multi-model Optimizations 18

Chapter 4 Pretzel: A White Box ML Inference System 19
4.1 System Overview 19
4.2 Off-line Phase 20
4.2.1 Flour 20
4.2.2 Oven 22
4.2.3 Object Store 26
4.3 On-line Phase 27
4.3.1 Runtime 27
4.3.2 Scheduler 29
4.3.3 External Optimizations 30
4.4 Evaluation 30
4.4.1 Experimental Setup 31
4.4.2 Memory 33
4.4.3 Latency 34
4.4.4 Throughput 38
4.4.5 Heavy Load 39
4.5 Limitations 41
4.5.1 Off-Line Phase 41
4.5.2 On-Line Phase 42

Chapter 5 Related Work 44
5.1 Prediction Serving 44
5.2 Optimizing ML Pipelines 45
5.3 Scheduling 46

Chapter 6 Conclusion 48
6.1 Summary 48
6.2 FutureWork 49

Bibliography 52
요약 62
-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subject.ddc621.39-
dc.titleOptimizing Machine Learning Inference Systems with White Box Approaches-
dc.title.alternativeWhite Box 방식을 통한 머신러닝 추론 시스템 최적화-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorLee, Yunseong-
dc.contributor.department공과대학 컴퓨터공학부-
dc.description.degreeDoctor-
dc.date.awarded2020-02-
dc.identifier.uciI804:11032-000000160797-
dc.identifier.holdings000000000042▲000000000044▲000000160797▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share