PCの小型化や記憶装置の小型・大容量化により,人の体験を全てデジタルデータとして保存できる ようになる日が近づいている. しかし,ただ保存しただけでは,人が膨大なデータ群から参照したい場面を探し出すことに 手間がかかってしまう. そのために,体験映像を自動的に要約・構造化する技術が重要となる.
ユーザが身につけたセンサから生体情報を取得し,体験映像の編集に利用しようという 研究が既に行われている. しかし,それらは,センサから取得した情報を基に, 興奮時にはα波が減衰する,緊張時には心拍変動量が下がる等の前提知識を用い, 予め設定された条件を満足する場面を抽出することによる編集が目的であるため, ユーザの要求は反映されていない. 対して本研究では,前提知識を用いず,ユーザが記録したい場面をシステムが抽出することに よるオンデマンドな編集を目標とする.
本研究では,ユーザが記録したいと思う体験におけるマルチセンサ情報には共通性 が存在すると仮定し,それを発見可能な分析手法について検討した. また,実験により,本目標の実現可能性について検討した. 本発表では,分析手法,実験内容,分析結果について発表する.