Publications

Detailed Information

InGaZnO 박막 트랜지스터를 이용한 3T1C 전하 저장형 심층 인공 신경망 가속기 : 3T1C Charge-Storage Type Synapse Using InGaZnO Thin-Film-Transistors for Deep Neural Network Acceleration

DC Field Value Language
dc.contributor.advisor김상범-
dc.contributor.author강민승-
dc.date.accessioned2024-05-31T18:00:07Z-
dc.date.available2024-05-31T18:00:07Z-
dc.date.issued2023-
dc.identifier.other000000175402-
dc.identifier.urihttps://hdl.handle.net/10371/203986-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000175402ko_KR
dc.description학위논문(석사) -- 서울대학교대학원 : 공과대학 재료공학부, 2023. 2. 김상범.-
dc.description.abstract인공지능 알고리즘은 이미지 인식, 자연어 처리 등의 분야에서 괄목할만한 발전을 이루고 있지만, 인공지능 구조의 복잡성, 전력 소모, 학습 기간의 증가를 전통적인 폰 노이만 컴퓨팅 구조가 따라가지 못하는 상황이다. 폰 노이만 병목 현상을 극복하기 위해 비휘발성 메모리를 crossbar 형태로 제작하여 학습 과정에서의 행렬-벡터 곱연산을 가속하려는 시도가 있었지만, 가중치 갱신의 비선형성, 비대칭성에 의해 현재로는 추가 연구가 필요하다. 반면 Si CMOS와 커패시터를 이용하면 이상적인 가중치 갱신이 가능하지만, 휘발성이라는 단점이 있다. 본 연구에서는 낮은 누설전류 수준을 가지는 amorphous InGaZnO 박막 트랜지스터를 활용하여 3T1C 구조의 시냅스 소자를 제시하였다. a-IGZO 트랜지스터는 n-type만 존재하기 때문에 가중치 갱신 과정이 비선형적일 수 있지만 소자가 인공지능 학습 알고리즘이 의도하는 가중치로 수렴할 수 있었고, 제작한 가중치 갱신 모델과 실험을 통해 소자의 비이상적인 특성들을 개선할 수 있는 방법을 제시하였다. 또한, 낮은 누설전류에 의한 10,000분 이상의 가중치 보존 시간 상수를 확인하였으며, 5×107의 가중치 갱신 사이클 동안 시냅스 소자가 변화 없이 동작하는 것 또한 확인하였다. 본 연구에서 제시된 3T1C 소자와 적합한 알고리즘이 결합한다면 인공지능을 저전력, 고속으로 학습할 수 있을 것으로 기대한다.-
dc.description.abstractArtificial intelligence (AI) has achieved remarkable progress in various fields such as image recognition and natural language processing. However, the complexity of emerging AI algorithms results in high power consumption and long training periods in conventional von-Neumann computing. While accelerating matrix-vector multiplication in crossbar arrays of nonvolatile memories has been suggested as a remedy for von-Neumann bottleneck issue, inherent nonidealities of nonvolatile memories, especially nonlinear and asymmetric weight updates, prevent its application. Si-CMOS and capacitor-based synapse may have linear, symmetric weight updates, but is volatile in nature. Amorphous InGaZnO thin film transistor 3T1C synapse circuit as a training accelerator is suggested in this work. Nonlinearity and asymmetry can be expected due to only n-type transistors existing for a-IGZO TFTs, but no issues were found in weight updating in simulated learning schemes. Mitigation methods have also been suggested founded on weight update models and experiments. Outstanding retention performance of more than 10,000 min was measured as expected of low off current of a-IGZO TFTs. Synaptic operation did not experience significant changes after 5×107 weight update cycles. Combined with optimized learning algorithms, a-IGZO 3T1C synapse can be a candidate for low power, high-speed AI accelerator.-
dc.description.tableofcontents1. 서 론 1
1.1 심층신경망 연산 가속을 위한 시냅스 소자의 필요성 1
2. 문헌 조사 5
2.1 비휘발성 메모리를 이용한 시냅스 소자 5
2.2 Si-CMOS 회로 기반의 on-chip learning 7
2.3 InGaZnO 박막 트랜지스터를 활용한 시냅스 소자 8
3. 실험 및 분석 방법 12
3.1 단일 트랜지스터 및 커패시터 제작 12
3.2 3T1C 구조 및 동작 19
3.3 3T1C 측정 방법 22
4. 결과 및 논의 25
4.1 3T1C 가중치 갱신 모델링 25
4.1.1 모델링 방식 25
4.1.2 가중치 갱신의 선형 대칭성 평가 방법 31
4.2 3T1C 가중치 갱신 33
4.2.1 측정 결과와 모델링 비교 33
4.2.2 시냅스 소자의 고속 동작 38
4.2.3 전압 조건에 따른 가중치 갱신 40
4.2.4 시냅스 산포 평가 45
4.2.5 목표 가중치 도달 능력 확인 48
4.3 가중치 retention 51
4.3.1 가중치 retention 실험 결과 51
4.3.2 5T1C와 3T1C의 retention 차이 53
4.3.3 Retention 실험 전후 시냅스 성능 평가 56
4.4 Cycling endurance 59
4.4.1 Endurance 실험 방법 및 결과 59
4.4.2 Cycling 부하가 시냅스 성능에 미치는 영향 62
5. 결 론 64
참고문헌 66
Abstract 74
-
dc.format.extentiv, 75-
dc.language.isokor-
dc.publisher서울대학교 대학원-
dc.subjectInGaZnO-
dc.subject박막 트랜지스터-
dc.subject심층신경망 연산 가속기-
dc.subject전하저장형 시냅스-
dc.subject낮은 누설전류-
dc.subject가중치 갱신의 선형성과 대칭성-
dc.subject.ddc620.1-
dc.titleInGaZnO 박막 트랜지스터를 이용한 3T1C 전하 저장형 심층 인공 신경망 가속기-
dc.title.alternative3T1C Charge-Storage Type Synapse Using InGaZnO Thin-Film-Transistors for Deep Neural Network Acceleration-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorMinseung Kang-
dc.contributor.department공과대학 재료공학부-
dc.description.degree석사-
dc.date.awarded2023-02-
dc.identifier.uciI804:11032-000000175402-
dc.identifier.holdings000000000049▲000000000056▲000000175402▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share