ヒューマノイドロボットにおけるビューシーケンスによるナビゲーションの実環境への対応

志水 芳直 (0551063)


近年,ロボットの人間の生活環境における活躍が実現されようとしている. 中でもヒューマノイドロボットには,雑多な作業のサポートを期待されている. ロボットの自律的な作業には,外界認識により作業位置まで正確に移動する必要があるが, ヒューマノイドロボットには多くのセンサを搭載することが難しい.

そこで本研究では,ヒューマノイドロボットに容易に搭載できるカメラを用いることで自律的な移動を実現する. 実環境にマーキングを行うことなく,進むべき経路を画像列として記録することにより, その画像列とのテンプレートマッチングによってナビゲーションを行う. これにより,特定の環境下に限定されることなくナビゲーションが可能になるとともに,容易にナビゲーションを行えるようにする. ただし,歩行中に取得される画像にはぶれが存在するものがあるため,移動経路の画像列をそのままマッチングに用いることはできない. そこで,画像列から歩行周期を推定することにより,ぶれた画像を除去する手法を提案する. また,画像の局所的な明るさの変化に対するロバスト性の向上についても提案する.

さらに,ヒューマノイドロボットHRP-2 に提案手法に基づくナビゲーション機能を実装し, モーションキャプチャ装置Vicon によりその移動経路を確認することによってその有効性を検証した.