共存型ロボットのための視覚に基づく対話行動の認識

明賀 陽平 (0151104)


人との深い関わりが求められる共存型ロボットにおいて,自然で円滑なコミュニ ケーションの実現は重要な課題となっている. 現在,コミュニケーションは音声を用いることが多 いが,実環境による音声コミュニケーションには雑音や発話意図の理解が困難で あるといった 問題がある.この問題を解決するために,非言語情報に注目する.非言語 情報とは,視線,身振り,手ぶり,抑揚等の人の発する言語情報以外のメッセー ジであり,人間同士のコミュニケーションにおいて重要な役割を持っ ているため,人間とロボットのコミュニケーションにおいても有効であるといえ る.

そこで本研究では,人の発見・追跡と,人が対話時に発する非言語情報(視線, 顔向き,口唇動作,瞬き)を計測する視覚処理システムを提案し,受付案内ロボッ トASKAへ実装した.また,非言語情報計測システムを用いて被験者による 対話実験から非言語情報の特徴の分析を行い,その分析結果を用いて発話区間 を認識するシステムを開発した.さらに,本システムを用いて被験者による対話実 験を行い,音声コミュニケーションにおける非言語情報を用いた発話区間の認識 の有効性を示した.