動画像からの対象物体の情報を多く含む広範囲合成画像の生成
牧山 彰太 (0851107)
近年,デジタルカメラや携帯電話などの普及により手軽に動画像を
撮影することができるようになった.
しかし,動画像の情報量は膨大であり,1枚の画像の様に一目で
撮影されたシーンの情報を理解することはできない.
そこで,動画像から動画像中の情報を集約した一覧性の高い
1枚の画像を生成することができれば,動画像の情報を素早く理解することが
容易になると考えられる.
本研究では,横方向にカメラを移動させて得られた動画像から,
撮影対象の重要とされる部分に着目し,任意の対象物体の情報を多く含む
広範囲合成画像を生成する手法を提案する.
一般的に,動画像からの画像生成は,動画像中に含まれる情報の取捨選択が困難とされるが,
本手法では,特徴点の対応関係により判断し,画像生成を行う.
そこでは,動画像を時系列に重ねた3 次元ボリュームを生成し,
そこへある曲面を与え,その曲面に沿って画素値をサンプリングすることにより,
広範囲合成画像を生成する.
この曲面は,動画像中のフレーム間の特徴点の対応関係を利用し,
対象物体上の特徴点を多く持つように設定する.
これにより,対象物体の情報を多く含む広範囲合成画像を生成する.