ヒューマンインタフェースのための顔情報計測に基づく人間の心理状態推定

坪田 智子 (9951204)


人間の顔は, 心理状態を反映した情報を提示していると考えられる.例えば, 人 は他人の顔を観察することで「集中している」「ぼんやりしている」「リラック スしている」「いらいらしている」などの状態を容易に識別できる. このことから, もしコンピュータシステムが同様にユーザの心理状態を推定する ことができれば, ユーザを適切にサポートする, より知的なインタフェースが構 築できると考えられる.

しかし, 従来のコンピュータビジョンにおける顔の計測に関する研究は, 静止画 像もしくはオフラインの画像系列を用いたものがほとんどであり, ヒューマンイ ンタフェースでの利用を考えるとリアルタイム性に欠けるという問題がある.ま た多くの場合, その処理は個人識別, 表情認識, ジェスチャ認識であり, ユーザ の状態を推定する手がかりにしようという試みは見られない. また,ユーザの心理状態を推定するためには, まずユーザの挙動を計測し モデリングすることが必要になるが,計測にはユーザに負担をかけない非接触型の 計測装置を用いることが望ましい.

本発表では, まず, 非接触型でリアルタイムの顔情報計測システムについて 説明する. そして, そのシステムを用いて限定されたシチュエーションのもとで 実際に人間の顔を観察し, その計測結果及びある心理状態を推定する実験の様子と結果を報告する.