Publications

Detailed Information

Deep Learning Based Acoustic Fault Severity Estimation : 딥러닝 기반 음향 이상 강도 추정

DC Field Value Language
dc.contributor.advisor윤병동-
dc.contributor.author송주환-
dc.date.accessioned2019-05-07T03:10:04Z-
dc.date.available2019-05-07T03:10:04Z-
dc.date.issued2019-02-
dc.identifier.other000000154951-
dc.identifier.urihttps://hdl.handle.net/10371/150672-
dc.description학위논문 (석사)-- 서울대학교 대학원 : 공과대학 기계항공공학부, 2019. 2. 윤병동.-
dc.description.abstract이 연구는 극단적인 정상과 이상 음향 신호만을 학습하여, 임의의 음향 신호의 이상 정도를 추정할 수 있는 딥러닝 알고리즘 기반 방법론에 대한 것이다. 우선 연속적으로 강도가 변화하는 이상 음향을 구현하기 위해 두 종류의 이상 신호를 실험적으로 합성하였다. 정상과 심한 이상 음향을 스펙트로그램으로 변환하여 다른 데이터로 이미 가중치가 학습된 CNN 모델로 분류를 시도한 결과, 아주 높은 수준의 정확도로 분류가 가능한 것이 확인되었다. 그러나 이 과정에서 학습된 모델로도 중간 정도의 이상 음향을 구분해낼 수 없었다. 이 한계점을 극복하기 위해서 우리는 잠재 공간의 특징 인자를 추출하였다. 우리는 특징 인자의 차원을 축소한 결과, 이상 정도의 증가에 따라 차원 축소된 인자 값이 서서히 변하는 현상을 관찰하였다. 이 현상은 정상 상태와 이상 상태의 특징 인자 군집 사이에 중간 정도의 이상을 가진 음향의 특징 인자를 위치시킬 수 있음을 시사한다. 마지막으로 이 방법론은 비음향 진동 데이터를 포함한 실제 환경에서 계측된 데이터들에 적용되었다. 제시된 방법론은 실제 데이터에 대해서도 유의미한 결과를 보였으며, 시주파수 영역 상에서 상태가 변화하는 이상에 공통적으로 적용될 수 있음을 제시하였다.-
dc.description.abstractThis research proposes a deep learning-based method to estimate an intermediate severity fault state of acoustic data using a model trained only with normal and severe fault labels. First, two types of synthesized acoustic faults with five parameters were designed to simulate a gradually increasing fault. Then, a pretrained CNN model was applied to spectrogram images built from the data. The results from this model prove that classification of both normal and severe faults is possible with high accuracy. However, distinguishing intermediate faults was not possible, even with a fine-tuned model of highest accuracy. To overcome this limitation, latent space features were extracted using the model. Based on this information, the feature values were shown to gradually change as the severity of the fault increased in the reduced-dimension space. This phenomenon suggests that it is possible to map data with intermediate-level faults in the space somewhere between normal and severe fault clusters. The method was tested on real data, including non-acoustic vibrational data. It is anticipated that the proposed method can be applied not only to acoustic signals but also to any signals with a fault characteristic that gradually changes in the time-frequency domain as the fault propagates.-
dc.description.tableofcontentsTable of Contents
Abstract i
List of Tables vi
List of Figures vii
Chapter 1. Introduction 1
1.1 Motivation 1
1.2 Scope of the Research 3
1.3 Thesis Layout 6
Chapter 2. Research Background 7
2.1 Types of Acoustic Faults 7
2.2 Spectrogram 8
2.3 CNN Models 10
2.3.1 VGG-16 and VGG-19 11
2.3.2 ResNet-50 12
2.3.3 InceptionV3 13
2.3.4 Xception 15
2.4 Transfer Learning 16
2.5 Latent Space 17
2.5.1 Latent Space Visualization 17
Chapter 3. Proposed Estimation Method 18
3.1 Simulating Acoustic Fault 18
3.1.1 Modulation Fault 21
3.1.2 Impulsive Fault 22
3.2 Spectrogram Parameters 23
3.3 Transfer Learning and Fine-tuning 25
3.4 Latent Space Visualization 26
Chapter 4. Experiment Result 27
4.1 Synthesized Data 27
4.1.1 Transfer Learning Result 27
4.1.2 Prediction Result 28
4.1.3 Latent Space Visualization Result 32
4.2 Case Western Reserve University Bearing Dataset 35
4.2.1 Latent Space Visualization Result 36
4.3 Unbalanced Fan Data 37
4.3.1 Latent Space Visualization Result 37
Chapter 5. Conclusion and Future Work 39
5.1 Conclusion 39
5.2 Contribution 40
5.3 Future Work 41
-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subject.ddc621-
dc.titleDeep Learning Based Acoustic Fault Severity Estimation-
dc.title.alternative딥러닝 기반 음향 이상 강도 추정-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorJoowhan Song-
dc.description.degreeMaster-
dc.contributor.affiliation공과대학 기계항공공학부-
dc.date.awarded2019-02-
dc.identifier.uciI804:11032-000000154951-
dc.identifier.holdings000000000026▲000000000039▲000000154951▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share