モーションデータの合成による人物動作アニメーションの対話的生成

川野親二 (0051026)


 現在、人物動作アニメーションは映画、CMなどで幅広く使われている。仮想世界を計算機を用いて視覚化するという作業は、計算機性能の飛躍的な向上とともに進歩を遂げ、現在では、高品質かつ低コストで映像を作成できる手段として、揺るぎない地位を確立している。
 しかしながら、その技術はいまだ完成の域には達していない。初期のアニメーション作成手法では映像の作成に当たって様々な制約が生じていた。最も大きな問題点は、映像の各フレームをユーザが作成しなければならなかったことである。その労力を削減するために、シーン毎に基点となるキーフレームを複数用意して補間を行うキーフレームアニメーションが考案された。しかし、どのフレームをキーとするか、また補間方法によって仕上がりが大きく変わり、熟練した高度な技術と多大な時間的コストを要した。
 このため、それらの問題点を解決するために、モーションキャプチャー技術が考案された。実際の人間が、体の関節部分にセンサーを取り付け演技することによって、体の移動度と回転角度を一度に取得することが可能となった。しかしながら、それらのデータを再利用するための変換作業が必要であったり、装置が非常に高価であるという問題がある。
 したがって、ユーザが細かい箇所まで指示しなくても、より簡単に人物動作アニメーションを作成できるシステムの実現が必要である。そこで次のようなシステムが提案されている。  1つは、キーフレームアニメーションにおいて、既存のモーションデータ内に別に作成したキーフレームを挿入し、ユーザの意図したアニメーションを対話的に作成する手法である。しかしキーフレームアニメーションによる作成を主体としているため、ユーザがキャラクタの関節を直接操作する必要があり、一連の長いアニメーションを作成するためには依然として時間的コストが大きいという問題がある。もう1つは、このような時間的コストを減らすために、キャラクタの物理的な行動を音声や文書などの自然言語によって指示する方法である。しかし、自然言語を解析するため、あいまいな表現が含まれる場合、正しく動作するとは限らないという問題がある。
 以上を踏まえ、本研究ではユーザにキーフレームを作成させることなく、計算機上に構築された仮想空間上でユーザがキャラクタに対話的にモーションデータベースからモーションを選択して指示を与えることにより、人物動作アニメーションを生成する手法を提案する。これにより人物動作アニメーションを作成するにあたってユーザ側のコストを著しく軽減することが可能となる。また、本研究で提案する手法を用いた実験システムを実装し、その有用性を示す。