ズームによるカメラパラメータ変化を考慮した拡張現実感のためのカメラ位置・姿勢推定

岡田 和也 (1151029)


現実環境を撮影した画像上にCGなどの仮想物体を位置合わせし重畳表示することで 情報を付加するビデオシースルー型拡張現実感(AR)は,ナビゲーションや 作業支援などの分野での応用が期待される. このようなARにおいて,現実環境と仮想環境の位置合わせを実現するためには,カメラの位置・姿勢を推定する必要がある. これまでのARでは,提示装置としてヘッドマウントディスプレイを想定しており, カメラズームのような機能はユーザに違和感を与えるため利用されていなかった. そのため,ARを実現する際には,カメラの内部パラメータはキャリブレーション時の状態で固定し, カメラの位置・姿勢のみをオンラインで推定することで位置合わせを実現していた. 一方,近年ではテレビ番組などの映像制作分野や,スマートフォンやタブレット端末を用いた アプリケーションでのARの利用が増えている. 特に,幾何形状が既知であるマーカを用いるマーカベースARは, 手軽に現実環境と仮想環境の位置合わせを実現できるため,広く利用されている. これらの分野で用いられる機器の多くはズーム機能を有しているが, カメラの内部パラメータがズーム値に依存して変化するため, ズーム機能を利用した際の現実環境と仮想環境の位置合わせは難しいという問題があった. そこで,本研究では,マーカベースARにおいて,ズーム機能利用時の内部パラメータを カメラの位置・姿勢の推定と同時に推定することで,ズーム機能を利用した場合においても, 高精度な位置合わせを実現する. ズームによる内部パラメータの変化をオンラインで推定するために, 本研究では事前に各ズーム値における内部パラメータの値の関係を算出しておく. この関係を用いて,オンラインで内部パラメータおよびカメラの位置・姿勢を算出する手法として, (1)内部パラメータを固定した基準カメラを利用する手法,(2)環境内の自然特徴点を利用する手法の提案を行う. 本発表では,各提案手法の内容を述べた後に,シミュレーション環境・実環境における評価実験の内容・結果について述べ, 最後に今後の課題について述べる.