動画像からの対象物体の情報を多く含む広範囲合成画像の生成

牧山 彰太 (0851107)


近年,デジタルカメラや携帯電話などの普及により手軽に動画像を 撮影することができるようになった. しかし,動画像の情報量は膨大であり,1枚の画像の様に一目で 撮影されたシーンの情報を理解することはできない. そこで,動画像から動画像中の情報を集約した一覧性の高い 1枚の画像を生成することができれば,動画像の情報を素早く理解することが 容易になると考えられる. 本研究では,横方向にカメラを移動させて得られた動画像から, 撮影対象の重要とされる部分に着目し,任意の対象物体の情報を多く含む 広範囲合成画像を生成する手法を提案する. 一般的に,動画像からの画像生成は,動画像中に含まれる情報の取捨選択が困難とされるが, 本手法では,特徴点の対応関係により判断し,画像生成を行う. そこでは,動画像を時系列に重ねた3 次元ボリュームを生成し, そこへある曲面を与え,その曲面に沿って画素値をサンプリングすることにより, 広範囲合成画像を生成する. この曲面は,動画像中のフレーム間の特徴点の対応関係を利用し, 対象物体上の特徴点を多く持つように設定する. これにより,対象物体の情報を多く含む広範囲合成画像を生成する.