そこで,感情を怒り,喜び,平常,悲しみの4つに分類することを提案した.次に,その4つの感情を発話速度と基本周波数の点から分析を行い,それぞれの感情によって発話速度がある程度変動していることを見出した.
発話速度の違いによってある程度の感情の分類ができることが示されたので,音声データをHMMを用いて学習し,自動的に感情の分類を行うことができるのかを確認した.発話速度を考慮して認識を行った場合,最高90%の認識率を得ることができ,この結果よりHMMによる感情認識の有用性が確認された.また,HMMによる感情認識の妥当性を確認するために,人間による聴取実験を行った.その結果,全体で73%の認識率が得られ,概ね人間との相違が見られないと思われた.しかし,まだ3割程度は人間とのずれが生じており,また誤認識に若干偏りが見られたことから,モデルの学習方法を見直す必要がある.