Publications

Detailed Information

Research on Hardware Vulnerability Detection and Data Protection in Deep Learning : 하드웨어 취약점 탐지 및 딥러닝에서 데이터 보호를 위한 연구

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

허재원

Advisor
이병영
Issue Date
2023
Publisher
서울대학교 대학원
Keywords
하드웨어 취약점퍼징딥러닝기밀계산
Description
학위논문(박사) -- 서울대학교대학원 : 공과대학 전기·정보공학부, 2023. 8. 이병영.
Abstract
사이버 범죄로 인한 해킹, 데이터 탈취 등 위협이 점점 증가함에 따라 사이버 보안 분야가 더욱 많은 관심을 받고 있습니다. 이와 관련하여 다양한 보안 문제에 대한 지속적인 논의가 이루어지고 있습니다. 특히 본 논문에서는 시스템 보안과 관련된 두 가지 연구 주제인 하드웨어 취약점 탐지와 인공지능 학습에서의 학습 데이터 보호에 관해 논의합니다.

먼저, 시스템 보안을 달성하기 위해서는 하드웨어의 무결성이 필수적이므로, 본 논문에서 우선 하드웨어 취약점 탐지에 대한 연구를 소개합니다. 구체적으로, 우리는 두 가지, 취약점 탐지를 위한 프레임워크를 설계했습니다. 첫째로, CPU RTL에서 기능 버그를 찾는 DifuzzRTL(S&P 2021)과 둘째로, CPU에서 일시적 실행 취약점을 찾는 SpecDoctor(CCS 2022)입니다. DifuzzRTL은 CPU 버그를 찾기 위한 자동화된 효율적인 퍼징 프레임워크를 도입하였으며, 우리는 DifuzzRTL을 통해 오픈 소스 RISC-V CPU에서 새로운 버그를 발견하여 DifuzzRTL의 실용성을 입증했습니다. SpecDoctor는 CPU RTL을 기반으로 일시적 실행 취약점을 찾기 위한 첫 번째 퍼징 프레임워크로서, RISC-V CPU에서 새로운 유형의 일시적 실행 취약점을 발견하는 가능성을 보여주었습니다.

두 번째 주제로는 신뢰할 수 없는 인공지능 학습자에게 데이터를 공유할 때 학습 데이터 유출을 방지하는 방법에 대해 연구하였습니다. 위 연구는 특히, 현재 인공지능 산업에서 데이터가 가장 중요한 자산이라는 점에 착안하여 시작하였습니다. 이를 위해 FairLearning (S&P 2024에 제출함)이라는 딥러닝 학습 프레임워크를 설계했습니다. FairLearning은 딥러닝 모델 학습 중 데이터 유출의 현재 위험을 조명하고, 새로운 안전한 딥러닝 학습 구조를 제시합니다. 실제 데이터셋과 모델을 평가한 결과, FairLearning은 성능을 유지하면서 데이터 누출을 최소화하는 것을 보여주었습니다.
With ever increasing threats from cyber-criminals, the concerns for cyber-security have increased more then ever before. In this respect, they have fostered ongoing discussions on various security issues. Especially, in this dissertation, we discuss two research topics in system security: vulnerability detection in hardware, and training data protection in deep learning.
First of all, we introduce the researches on detecting hardware vulnerabilities as the integrity of hardware is essential for achieving system security. More specifically, we design two frameworks for detecting the vulnerabilities: i) DifuzzRTL (S&P 2021), which finds functional bugs in CPU RTLs, and ii) SpecDoctor (CCS 2022), which finds transient execution vulnerabilities in CPUs. DifuzzRTL introduces an automatic and efficient fuzzing framework for finding CPU bugs, and we demonstrated the practicality of DifuzzRTL by finding new bugs in open-source RISC-V CPUs. SpecDoctor designs the first fuzzing framework to find transient execution vulnerabilities given CPU RTLs, and it shows the availability by finding new sorts of transient execution vulnerabilities in RISC-V CPUs.
As the second topic, we focus on how to protect against leaking the training data while sharing it to untrusted machine learners. We have studied on this issue because the data has become the foremost asset in current industry of artificial intelligence. To this end, we design FairLearning (w.t.b. accepted to S&P 2024), which is a deep learning framework that minimizes the training data leakages. FairLearning shed light on the current risks of data breaches in deep learning model training, and designs a new secure training. Through the evaluation on real-world datasets and models, FairLearning demonstrated that it minimizes the data leakage while preserving the performance.
Language
eng
URI
https://hdl.handle.net/10371/196449

https://dcollection.snu.ac.kr/common/orgView/000000178370
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share