Publications
Detailed Information
HMM 기반 음성합성 시스템의 합성음 음질 향상을 위한 고차 파라미터의 활용 기법
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | 김남수 | - |
dc.contributor.author | 구현우 | - |
dc.date.accessioned | 2017-07-14T02:52:43Z | - |
dc.date.available | 2017-07-14T02:52:43Z | - |
dc.date.issued | 2013-08 | - |
dc.identifier.other | 000000013751 | - |
dc.identifier.uri | https://hdl.handle.net/10371/123004 | - |
dc.description | 학위논문 (석사)-- 서울대학교 대학원 : 전기·컴퓨터공학부, 2013. 8. 김남수. | - |
dc.description.abstract | 음성 합성 시스템은 음성 인식 시스템과 함께 차세대 사용자 인터페이스 구축에 있어서 매우 중요한 기술이다. 파라미터 기반의 음성 합성 시스템은 음성 데이터베이스에서 필요한 파라미터를 추출하고, 이를 통계적인 방법으로 모델링한 후 입력 문장에 적합한 파라미터열을 추정해내어 합성음을 생성하는 방식으로 이루어져 있다. 통계적인 방법으로 모델링하는 학습 과정에서는 HMM을 이용한 음소 단위의 모델을 만들어낸다. 이 때 HMM의 파라미터로 쓰이는 mel-cepstral coefficients는 차수가 높을수록 원음에 가까운 모델을 얻게 되는데, 차수를 높이게 되면 저장 용량 또한 비례해서 커지므로 비효율적인 면이 있다. 본 논문에서는 HMM의 파라미터에 dimension reduction 기법을 적용해 고차 정보를 활용하면서도 모델의 차수를 유지하게 하였다. 그 결과 같은 차수를 활용하였을 경우 제안한 기법을 적용하였을 때 합성음의 음질이 향상됨을 확인할 수 있었다. | - |
dc.description.tableofcontents | 제 1 장 서론
제 2 장 HMM 기반의 음성합성 제 1 절 Hidden Markov Model 1.1 HMM의 정의 1.2 Calculating output probability 1.3 Searching optimum state sequence 1.4 Maximum likelihood estimation of HMM parameters 제 2 절 HMM 기반의 음성합성 2.1 학습 과정 2.2 합성 과정 제 3 장 Dimension reduction 기법 적용 제 1 절 PCA 제 2 절 PPCA 제 3 절 Dimension reduction 기법의 적용 제 4 장 실험 결과 제 1 절 실험 조건 제 2 절 실험 결과 2.1 객관 평가 2.2 주관 평가 제 5 장 결론 | - |
dc.format | application/pdf | - |
dc.format.extent | 995567 bytes | - |
dc.format.medium | application/pdf | - |
dc.language.iso | ko | - |
dc.publisher | 서울대학교 대학원 | - |
dc.subject | 음성합성 | - |
dc.subject | PCA | - |
dc.subject | PPCA | - |
dc.subject.ddc | 621 | - |
dc.title | HMM 기반 음성합성 시스템의 합성음 음질 향상을 위한 고차 파라미터의 활용 기법 | - |
dc.type | Thesis | - |
dc.description.degree | Master | - |
dc.citation.pages | iv, 39 | - |
dc.contributor.affiliation | 공과대학 전기·컴퓨터공학부 | - |
dc.date.awarded | 2013-08 | - |
- Appears in Collections:
- Files in This Item:
Item View & Download Count
Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.