ゼミナールI講演

日時: 平成25年5月8日(水)3限 (13:30 -- 15:00)
Wed., May 8th, 2013 (3rd Period, 13:30 -- 15:00)
場所: L1

講演者: 山岸順一 (国立情報学研究所・エジンバラ大学音声技術研究所)
Junichi Yamagishi (National Institute of Informatics/The Centre for Speech Technology Research, The University of Edinburgh)
題目: 統計的音声合成とその応用
概要: 本講演ではテキスト音声合成技術の最先端研究内容について紹介する。 これまでテキスト音声合成は与えられたテキストを読み上げるだけのオプション機能であった。しかし、近年隠れマルコフモデルおよび話者適応技術により、新たな統計的音声合成方式が確立し、与えられたテキストを決まった声で読み上げる以上のことが実現出来るようになってきている。 本講演では、統計的音声合成方式および話者適応について概説した後、個人用音声翻訳器、筋萎縮性側索硬化症などにより喋ることが困難になった障碍者の声をもとの健常な声に変換する技術、外部の騒音などに適応的な音声合成器などの幾つかのアプリケーションについて紹介する。またそれぞれのアプリケーションを支えている理論・技術も解説する。
Until recently, text-to-speech was often just an 'optional extra' which allowed text to be read out loud. But now, thanks to hidden Markov model (HMM) and speaker adaptation technologies which were originally developed for ASR, speech synthesis can mean more than just the reading out of text in a predefined voice. New research areas and more interesting applications based on adaptive and reactive speech synthesis are emerging. In this talk, after a quick overview of the basic approaches to statistical speech synthesis including speaker adaptation, we will examine several applications including personalised speech-to-speech translation, voice reconstruction for patients who have disordered speech, and noise-adaptive speech synthesis and will describe the underlying theoretical techniques that have made them possible.

ゼミナール I, II ページへ