形態素単位の N-gram モデルの構築と圧縮に関する研究

踊堂 憲道 (9651120)


統計的言語モデルである N-gram モデルは、構築が比較的容易であること、 学習に必要な大量データが整備されてきていること、音響モデルとの相性が 比較的良いこと、などの理由により、連続音声認識においてよく使われる ようになり、その効果が認められています。

もちろん、パラメータ数、未知語や未知 N-gram の扱い、 タスク適応、そして、日本語特有の「N-gram 単位」などの問題がありますが、 今後の日本語の連続音声認識システムの発展・普及には、特に、 最適な「単位」に基づいた、頑健性と実用性を兼ね備えた N-gram モデルの 構築が重要ではないかと考えています。

そこで本発表では、

  1. 異なる形態素解析結果に基づく N-gram モデルの比較による、 音声認識用の標準的な言語モデルの作成に必要となる形態素解析の 基準・方針の調査
  2. エントロピー(パープレキシティー)の観点から trigram モデルの圧縮 (パラメータ削減)を行ない、従来法(カットオフ)よりも優れた方法の 提案
を行ないましたので、その概要について、できるだけ 解りやすい絵やグラフを用いて発表する予定です(2月13日現在)。