Publications

Detailed Information

Natural Audio Captioning : 오디오 캡셔닝

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

Chris Dongjoo Kim

Advisor
Gunhee Kim
Issue Date
2021-02
Publisher
서울대학교 대학원
Keywords
Neural NetworkDeep LearningNatural Language ProcessingAudio in-the-wildCaptioningAttention Module신경망딥러닝자연어 처리자연소리 모델링캡셔닝
Description
학위논문 (석사) -- 서울대학교 대학원 : 공과대학 컴퓨터공학부, 2021. 2. Gunhee Kim.
Abstract
본 논문은, 오디오 캡셔닝이라는 주제를 최초로 다룬다. 자연에서 발생하는 소리
를 인간의 언어로 표현하는 문제는 아직 아무도 다뤄보지 않은 중요한 문제이다.
새로운 문제를 이해하고 풀기위해선 학습에 있어 가장 중요한 데이터가 필요하
다. 우리는 약 9만3천개 가량의 자연의 소리에 관한 해설을 크라우드 소싱하여
AudioCaps라는 새로운 데이터셋을 구성하였다. 본 논문에서는 철저한 실험들을
통하여 AudioCaps 데이터셋의 높은 품질을 증명하고, 오미오 캡셔닝이라는 새
로운 문제에 어떤 input representation이 적합한지 꼼꼼하게 확인을 해보았다.
추가로, 자연에서 발생하는 오디오의 특징을 발견하여, 2가지의 새로운 테크닉을
선보인다. 첫번째는, Top-Down multi-scale encoder이라는 방법을 통해 오디오의
세부적인 내용까지 학습하는데 고려를 하도록하고, 두번째로는 aligned semantic
attention을 통해 오디오와 주어지는 semantic cue가 정렬이 잘 맞을 수 있도록
유도한다. 이 두가지 테크닉을 이용하여, 새로운 state-of-the-art 성능을 갱신해보
인다
We explore the problem of audio captioning: generating natural language descriptions for any kind of audio in the wild, which has been surprisingly unexplored in previous research. We contribute a large-scale dataset of 93K audio clips with human-written text pairs collected via crowdsourcing on the AudioSet dataset. Our thorough empirical studies not only show that our collected captions are indeed faithful to audio inputs but also discover what forms of audio representation and captioning models are effective for the audio captioning. From extensive experiments, we also propose two novel components that help improve audio captioning performance: the top-down multi-scale encoder and aligned semantic attention.
Language
eng
URI
https://hdl.handle.net/10371/175417

https://dcollection.snu.ac.kr/common/orgView/000000163979
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share