Publications

Detailed Information

학습분포의 외부패턴 탐지를 위한 클래스 내 교차 주의집중 트랜스포머 : Within-class Cross-Attention Transformer for Out of Distribution Pattern Detection

DC Field Value Language
dc.contributor.advisor최진영-
dc.contributor.author조석호-
dc.date.accessioned2022-12-29T07:47:50Z-
dc.date.available2022-12-29T07:47:50Z-
dc.date.issued2022-
dc.identifier.other000000172186-
dc.identifier.urihttps://hdl.handle.net/10371/187822-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000172186ko_KR
dc.description학위논문(석사) -- 서울대학교대학원 : 공과대학 협동과정 인공지능전공, 2022. 8. 최진영.-
dc.description.abstractOOD(out-of-distribution) 탐지 문제 중 가까운(near) OOD 탐지는 OOD데이터가 학습시에 본 데이터인 ID(in-distribution)와 의미상으로 유사하여 탐지하기 어려운 문제이다. 우리는 예상치 못한 OOD 데이터셋으로 인해 이상치 노출(outlier exposure)을 사용할 수 없는 일반적인 경우에 가까운 OOD 탐지 성능을 개선하는 것을 목표로 하였다. 이 목표를 달성하기 위해 기존의 비전 트랜스포머(ViT; vision transformer)를 기반으로 추가적인 기능을 설계하였다. 가장 중요한 설계는 클래스 대표특징과 이미지 특징 간의 교차 주의집중(cross-attention)을 사용한 것이다. 비전 트랜스포머에 의해 수행되는 이미지의 전체 자가 주의집중(self-attention) 에 추가적으로 클래스-이미지 상관 관계를 인코딩하였다. 따라서 우리가 제안하는 방법은 비전 트랜스포머(ViT; vision transformer)의 특징에 클래스-이미지 상관관계에 의한 인코딩 벡터를 완전 연결계층(FC layer; fully connected layer)에 입력으로 인가하여 신뢰점수가 최종 출력되도록 설계하였다. 이 신뢰점수가 특정 문턱치(threshold)를 넘지 못하면 OOD로 탐지한다. 이 방법은 OOD 데이터에 대한 정보를 사용치 않고 ID만으로 학습을 하게되어, 이상치 노출없이 OOD 탐지를 할 수 있다. 제안한 방법이 일반적인 경우에 추가적인 OOD 성능을 향상시킨다는 것을 실험을 통하여 보였다. 그 결과 Cifar10(ID)-Cifar100(OOD)의 경우 기존 방법의 성능을 능가하는 AUROC 98.87%, AUPR 98.94%를 달성하였고 Cifar100(ID)-Cifar10(OOD)의 경우 AUROC 97.51%, AUPR 98.16%를 달성하였다.-
dc.description.abstractAmong the out-of-distribution(OOD) detection problems, near OOD detection is a task that detects an OOD dataset which is semantically similar to the in-distribution(ID) and is a more difficult task than other OOD detections. We aim to improve near OOD performance in general case that can not use outlier exposure because of unexpected OOD dataset. We perform near OOD detection task by using the cross-attention between class representative and image to encode the class-image correlation in addition to the overall self-attention feature in the image. We demonstrate that our method improves additional OOD performance. As a result, we achieve general case SOTA AUROC 98.87% , AUPR 98.94% in the case of Cifar10(ID)-Cifar100(OOD). In the case of Cifar100(ID)-Cifar10(OOD), we achieve AUROC 97.51% , AUPR 98.16%.-
dc.description.tableofcontents요 약 i
차 례 ii
제 1 장 서론 1
제 2 장 관련 연구 3
2.1 OOD 탐지 3
2.2 트랜스포머(transformer) 5
2.3 비전 트랜스포머 7
2.4 주의집중 7
제 3 장 방법 10
3.1 개요 10
3.2 특징 시퀸스 생성 11
3.3 교차 주의집중 모듈 12
3.4 네트워크 구조 및 특징 15
3.5 학습 과정 17
3.6 추론 과정 19
제 4 장 실험 22
4.1 구조 애블레이션 연구 22
4.2 데이터셋 23
4.2.1 Cifar-10, Cifar-100 23
4.2.2 SVHN 24
4.2.3 LSUN 24
4.2.4 TinyImageNet 24
4.3 실험 세부사항 24
4.4 OOD탐지 성능실험 25
제 5 장 결론 28
ABSTRACT 34
-
dc.format.extentvi, 34-
dc.language.isokor-
dc.publisher서울대학교 대학원-
dc.subjectOut-of-Distribution탐지-
dc.subject비전트랜스포머-
dc.subject교차주의집중-
dc.subject.ddc006.3-
dc.title학습분포의 외부패턴 탐지를 위한 클래스 내 교차 주의집중 트랜스포머-
dc.title.alternativeWithin-class Cross-Attention Transformer for Out of Distribution Pattern Detection-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorSeokho Cho-
dc.contributor.department공과대학 협동과정 인공지능전공-
dc.description.degree석사-
dc.date.awarded2022-08-
dc.identifier.uciI804:11032-000000172186-
dc.identifier.holdings000000000048▲000000000055▲000000172186▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share