拡張現実感のための射影変化に頑健なカメラ位置・姿勢情報を考慮したSURFに基づく特徴点追跡

上月一史(1151123)


現実環境に対してCGなどの仮想物体を位置合わせして重畳表示することで情報を付加する 拡張現実感(AR)は,作業支援,教育支援,エンタテイメントなどの様々な分野での利用が期待される. 中でも,Paper ARと呼ばれるアプリケーションでは平面状の紙面のテクスチャから検出される特徴点に基づいて カメラ位置・姿勢を推定し,位置合わせを行っている. その際,入力画像中の特徴点と事前に登録されている追跡対象の紙面上の特徴点を対応付けるために SURF(Speeded-Up Robust Features)特徴やFernsといったパターン変化に頑健な特徴点追跡手法が用いられている. しかし,これらの特徴点追跡手法は,射影変化に不変ではないという問題や 事前にパターンの変形を学習させる必要があり手軽にAR環境を構築することが難しいという問題がある.

このような問題に対して本研究では,事前学習が不要なSURF特徴に基づく特徴点追跡手法を基礎とし, 時系列のカメラ位置・姿勢を用いることで頑健な特徴点追跡を実現する. 具体的には,推定されたカメラ位置・姿勢情報より算出される ホモグラフィ行列を用いて,入力画像を正対化することで射影変化の影響を除去する. ただし,入力画像を正対化した際には画像内で空間分解能 に差が生じるため画像内で一様な閾値を用いて特徴点の抽出を行った場合, 追跡対象の画像中に存在しない特徴点が多く検出される. そこで,本研究では,正対化画像の各領域に対して特徴点のスケール情報や カメラとの距離情報を考慮した閾値を動的に設定することで,適切に対応点候補を抽出する手法を提案する. 実験では,シミュレーション環境において,従来提案されている特徴点追跡手法と 提案手法の特徴点追跡精度について定量評価を行い有効性について検証した. また,実環境においても,特徴点追跡精度およびカメラ位置・姿勢推定精度について検証し, 本手法の有効性を確認した.その結果,提案手法を用いることで, 事前学習無しに射影変化が生じた場合においても頑健な自然特徴点の追跡が可能なことを確認した.