本研究では,幾何学的整合性問題を解決した拡張現実環境の実現を目的とし, 現実環境と仮想環境のステレオ画像合成手法を提案する.ここでは,現実環 境と仮想環境の時間的な同期が取れるため,幾何学的整合性問題を解決すれ ば,画像の合成段階では理論的に両者の位置ずれが生じないという特徴を持 つビデオシースルー型拡張現実環境に注目した.本手法は,まず,現実環境 中に配置されたマーカを,2眼のステレオカメラで撮影した画像からカメラ パラメータを推定することで現実環境と仮想環境の位置合わせを行なう.つ ぎに,現実物体と仮想物体の正確な前後関係を表現するため,ステレオ画像 対から,現実環境の奥行き情報を動的に取得する.その際,カメラパラメー タから仮想物体の投影される画像上の領域を求め,その領域に対してのみ奥 行き推定を行なうことで計算量を削減する.最後に,それらの結果を用いて 画像を合成し,ユーザへ提示する.また,頭部装着型ディスプレイ(HMD: Head Mounted Display) に取り付けられた2眼のステレオカメラを用いたビ デオシースルー型拡張現実環境提示システムのプロトタイプを試作し,提 案手法を用いた画像合成の有効性を確認した.