視覚と環境モデルとのマッチングによるサッカーロボットの 位置同定手法に関する研究

望月 恒治 (9751105)


ここ1,2年、人工知能やロボットの研究者の間でRoboCupが注目を集めている。こ の"ロボットがサッカーをする"という問題設定は、ナビゲーション、行動生成、 位置同定、環境認識などの研究の例題として適していることが注目を集めている 理由だが、その中でも位置同定は重要な位置を占めると言える。

位置同定方法は、 試合開始時に正確な値を入力しておき、試合中はエンコーダからの 情報を使って現在位置を更新する方法が一般的であるが、 この方法では接触や衝突などによる、位置情報の狂いが容易に考えられる。

そこで、本研究では視覚と環境モデルを用いた位置同定手法を提案する。

本研究で構築した環境モデルでは、コンピュータ内に準備したサッカーフィー ルドを用いて、位置情報からロボットの視界画像を作り出すことができる。 この環境モデル内で、実ロボットの視界画像に近い視界画像を 生成する位置を探索することにより、位置同定を行うことができる。 今回用いたロボットはカメラ画像上のゴールの高さと縦横比より推定した位置を 保持している。 この位置を探索の初期値として、その近傍を山登り法で探索 して最適値を求める。

本手法を実装し、ロボットの視界画像のみでは1m〜50cmほどあった誤差が環境モ デルを使った探索により40cm〜 20cm程に補正できることを確認した。

本手法はのメリットとしては、エンコーダや非接触センサとは異なり、 フィールドの大きさに精度が 依存しないこと、壁というランドマークを必要としない点が優れていること、 がある。