Publications

Detailed Information

InGaZnO 박막 트랜지스터를 이용한 3T1C 전하 저장형 심층 인공 신경망 가속기 : 3T1C Charge-Storage Type Synapse Using InGaZnO Thin-Film-Transistors for Deep Neural Network Acceleration

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

강민승

Advisor
김상범
Issue Date
2023
Publisher
서울대학교 대학원
Keywords
InGaZnO박막 트랜지스터심층신경망 연산 가속기전하저장형 시냅스낮은 누설전류가중치 갱신의 선형성과 대칭성
Description
학위논문(석사) -- 서울대학교대학원 : 공과대학 재료공학부, 2023. 2. 김상범.
Abstract
인공지능 알고리즘은 이미지 인식, 자연어 처리 등의 분야에서 괄목할만한 발전을 이루고 있지만, 인공지능 구조의 복잡성, 전력 소모, 학습 기간의 증가를 전통적인 폰 노이만 컴퓨팅 구조가 따라가지 못하는 상황이다. 폰 노이만 병목 현상을 극복하기 위해 비휘발성 메모리를 crossbar 형태로 제작하여 학습 과정에서의 행렬-벡터 곱연산을 가속하려는 시도가 있었지만, 가중치 갱신의 비선형성, 비대칭성에 의해 현재로는 추가 연구가 필요하다. 반면 Si CMOS와 커패시터를 이용하면 이상적인 가중치 갱신이 가능하지만, 휘발성이라는 단점이 있다. 본 연구에서는 낮은 누설전류 수준을 가지는 amorphous InGaZnO 박막 트랜지스터를 활용하여 3T1C 구조의 시냅스 소자를 제시하였다. a-IGZO 트랜지스터는 n-type만 존재하기 때문에 가중치 갱신 과정이 비선형적일 수 있지만 소자가 인공지능 학습 알고리즘이 의도하는 가중치로 수렴할 수 있었고, 제작한 가중치 갱신 모델과 실험을 통해 소자의 비이상적인 특성들을 개선할 수 있는 방법을 제시하였다. 또한, 낮은 누설전류에 의한 10,000분 이상의 가중치 보존 시간 상수를 확인하였으며, 5×107의 가중치 갱신 사이클 동안 시냅스 소자가 변화 없이 동작하는 것 또한 확인하였다. 본 연구에서 제시된 3T1C 소자와 적합한 알고리즘이 결합한다면 인공지능을 저전력, 고속으로 학습할 수 있을 것으로 기대한다.
Artificial intelligence (AI) has achieved remarkable progress in various fields such as image recognition and natural language processing. However, the complexity of emerging AI algorithms results in high power consumption and long training periods in conventional von-Neumann computing. While accelerating matrix-vector multiplication in crossbar arrays of nonvolatile memories has been suggested as a remedy for von-Neumann bottleneck issue, inherent nonidealities of nonvolatile memories, especially nonlinear and asymmetric weight updates, prevent its application. Si-CMOS and capacitor-based synapse may have linear, symmetric weight updates, but is volatile in nature. Amorphous InGaZnO thin film transistor 3T1C synapse circuit as a training accelerator is suggested in this work. Nonlinearity and asymmetry can be expected due to only n-type transistors existing for a-IGZO TFTs, but no issues were found in weight updating in simulated learning schemes. Mitigation methods have also been suggested founded on weight update models and experiments. Outstanding retention performance of more than 10,000 min was measured as expected of low off current of a-IGZO TFTs. Synaptic operation did not experience significant changes after 5×107 weight update cycles. Combined with optimized learning algorithms, a-IGZO 3T1C synapse can be a candidate for low power, high-speed AI accelerator.
Language
kor
URI
https://hdl.handle.net/10371/203986

https://dcollection.snu.ac.kr/common/orgView/000000175402
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share