特徴点の明示的な対応付けを必要としないカメラ位置姿勢推定

黒川 陽平 (1351040)


拡張現実感技術を用いたモバイル端末上で動作するアプリケーションでは, モバイル端末のカメラから得られる画像に対してリアルタイムに視覚情報を重畳提示するために, カメラの位置姿勢を高速・高精度に推定する必要がある. 拡張現実感のためのカメラ位置姿勢推定手法としてマーカを用いた手法が広く用いられているが, 環境中にマーカを配置する必要があるため,利用可能な環境が限定される. マーカを用いずに高精度なカメラ位置姿勢推定を実現する手法として, 事前に構築した3次元点群データベースを用いる手法が提案されている. この手法は,一般的に,カメラから得られた画像上の特徴点と点群データベース中の3次元点を 点の周辺の見えに関する記述子を用いて対応付けた上で, Perspective-n-point問題を解くことでカメラ位置姿勢を推定する. しかしながら,画像からの記述子の抽出や記述子による点の対応付けの計算コストが高いこと, および点群データベース中のすべての3次元点に記述子を付与することに起因するデータベースサイズの肥大化により, リソースの限られたモバイル端末での利用は難しい. このような問題に対して,本研究では,モバイル端末上でのマーカレス拡張現実感に向けて, 記述子による特徴点の明示的な対応付けを必要としないカメラ位置姿勢推定手法を提案する. 具体的には,あるカメラ位置姿勢のもとで3次元点群を画像上に投影して得られる投影点と, 入力画像から検出した特徴点の, 画像上での位置およびスケールの一致度合いをカメラ位置姿勢の評価尺度とし, これを最大化することでカメラ位置姿勢を推定する. 実験では,提案する評価尺度の振る舞いを検証した上で,提案手法によるカメラ位置姿勢推定の精度を確認した.