ゼミナール発表

日時: 12月21日(火)3限 (13:30-15:00)


会場: L1

司会:池田 聖
山川 智久 ロボティクス 小笠原 司
発表題目:三次元環境中の注視情報を用いた行動認識
発表概要:近年,人間の行動をディジタルデータとして記録し,その行動を解析する研究が盛んに行われている.しかしながら,現状の技術では未知環境での分類や複雑な行動の分類は困難である.そこで,本研究ではより詳細な行動解析を行うため,環境中の三次元情報や思考過程を反映する注視情報を利用した行動解析手法の確立を目指す.本発表では,関連研究の文献紹介と進捗状況について報告する.
 
山 将由 視覚情報メディア 横矢 直和
発表題目:[論文紹介]"Generating Sharp Panoramas from Motion-blurred Videos"
発表概要:パノラマ画像を作成する簡単な方法として,ビデオカメラで撮影した映像をもとにパノラマを作るという方法がある.しかし,ビデオカメラを大きく動かしてしまうとブラーが生じてしまい,ぼけたパノラマ画像となってしまう.そこで,このようなブレを補正する様々な研究が行われている.本発表では,複数枚の画像からモーションとデューティーサイクルを推定することでブレを補正する手法を紹介する.
 
吉田 康久 自然言語処理学 松本 裕治
発表題目:文単位の極性を考慮に入れた評判分析モデル
発表概要:近年インターネット上で個人の発信する情報が爆発的に増加していることに伴い、評判分析に関する研究が数多くなされている。中でも、文書を感情の極性によって肯定、否定、または中立に分類するというタスクが盛んに研究されている。しかし、検索結果の要約などのアプリケーションなどのことを考えると文書単位での極性判定だけでは不十分であり、文単位の極性が必要であることが多い。そこで、本研究では既存研究より少ないコストで文単位の極性を推論するモデルを提案する。また、Amazonのレビューデータを用いた実験結果を報告する。
 
葭本 匠 ロボティクス 小笠原 司
 
四方田 紗希 像情報処理学 千原 國宏

発表題目:群衆の意思を反映した大型ディスプレイへの情報提示
発表概要:デジタルサイネージには大型ディスプレイを用いるものがある.現在は1人に対した情報を提示している.また,多人数の場合には人の数だけ情報を表示しようとしている.しかしながら,人数が増えていくと効果的な情報提示は難しい.そこで,ディスプレイの前にいるのはひとつの群衆であると考え,その群衆に向けた情報提示を目指す.本発表では論文紹介とともに,今後の方針について述べる.

 
利原 康寛 自然言語処理学 松本 裕治
発表題目:比喩的用法の自動獲得
発表概要:比喩表現の辞書的意味を自動獲得し、辞書作成の手助けとなるようにする。顕現性における強度と差異度の定量化、および比喩表現を識別する先行研究を参考とし、「〜のような」と直喩されていない比喩表現の語義を自動獲得することを目指す。
 

会場: L2

司会:寺田 直美
脇坂 龍 音情報処理学 鹿野 清宏
発表題目:一般化平均二乗誤差最小化短時間振幅スペクトル推定法を用いた両耳補聴器
発表概要:雑音抑圧技術の両耳補聴器への応用に関して,先行研究において独立成分分析(ICA)と平均二乗誤差最小化短時間振幅スペクトル(MMSE STSA)推定法の統合手法における有効性が示されている.本研究では,MMSE STSA推定法における信号の統計モデルとして一般化ガンマ分布を利用して雑音抑圧を行う.また,キュムラントの加法性から,音声信号,雑音信号,音声と雑音の混合信号の3つの信号のカートシスの関係を求め,その関係を利用して音声と雑音の混合された信号から音声信号のカートシスを推定する.推定された音声信号のカートシスはMMSE STSA推定法におけるパラメータ設定に利用する.本発表では,音声カートシスの推定に関して,提案する手法の実験結果からその有効性を示す.
 
渡部 晃生 音情報処理学 鹿野 清宏
 
JOSEPH HOWARD IRWIN 自然言語処理学 松本 裕治
発表題目:スクリプト情報を用いた共参照解析
発表概要:一つの文書の異なる二つの部分が参照している事物が,同じものかどうか を判断する処理を共参照解析とよぶ.この問題を解くために語彙情報や談話情報を 用いることが多い.しかし,これを判断するにはもっと広い範囲の知識が必要な場合が しばしばある.この知識の一種としてスクリプト情報を利用する実験をする.
 
Magtanong,Emarc Perri Dizon ロボティクス 小笠原 司
Title: Modeling Facial Deformation for Creating Facial Expressions on Android Robots
Abstract: Recently, developments in android robots enable them to display human-like facial expressions. However, robotic facial expressions are usually adjusted by trial and error, thus making it a very tedious task. In this research, we propose an appropriate user interface to make facial expressions, wherein feature points on the face are directly controlled in Euclidean space. To do so, we attempt to develop a facial model, which serves as a feedback for the deformation of the face; the changes in feature points would be mapped as actuator values for the use of the robot's controller.