平成20年度 情報科学研究科 博士学位論文発表梗概


0761029 脇田 優仁
「ロボットの人に対する情報提示の研究」


 本論文では、ロボットの人に対する情報提示の様々な手法について述べる。  一般にロボットは人の代わりに作業を行うことが期待される。そのためには、ロボットは人との相互作用によって作業を教示される必要がある。適切な教示が行われるためには、作業に関する情報が人に対して適切に提示される必要がある。
人と相互作用することで作業を行うロボットとして、遠隔操作ロボット、生活環境共存型ロボット、日常生活支援ロボットの研究が行われてきている。それらのロボットに求められるユーザインタフェースにおいて、ロボットから人への情報提示について必要な機能を提案する。
 遠隔操作ロボットの人に対する情報提示手法として、「知的モニタリング」という考え方を提案する。これは、遠隔作業システムにおける、作業監視のための新たな知的機能の一つと考えられるものである。本論文で提案するその機能とは、遠隔作業ロボットシステムを用いた作業実行において、操作者のロボットに対する作業指令コマンドに対して、ロボットが対応する作業実行動作を行なうとともに、個々の作業に適した監視情報の操作者への提示の知的な制御を行なうというものである。
 生活環境共存型ロボットの人に対する情報提示手法として、「プロジェクション機能」を提案する。プロジェクション機能は床やテーブル面、壁などのロボットによる作業が行われる環境そのものに、ビデオプロジェクターでロボットから人へのメッセージとなる映像を投影することによって構成する。投影される画像によって、ロボットと同一環境において作業を協調して行う人は、協調作業に関する情報をロボットと共有することができる。投影される映像として、そのロボットのシミュレーション画像を用いる。
 日常生活支援ロボットの人に対する情報提示手法として、ロボットの実行可能な作業モデルのリストの提示と人による選択という方法を提案する。作業モデルの選択の後、ロボットは、その実行に必要な情報を人に問い合わせる。その質問に対する答えは、コンピュータ画面上で示される作業環境の監視画像上でロボットからの要請に従ってマウスで数個の点をクリックするという簡単なものに集約できる。監視画像はステレオカメラで撮影されており、随時画面の距離画像が計測されている。ロボットは、画像上でクリックされた点の距離データを利用して、作業を遂行することができる。
 最後に以上の手法を統合し、日常生活において人と共存、協調するロボットの条件とその開発の展望について述べる。

0561018 嶋村昌義
Studies on minimum throughput assurance service in provider provisioned virtual private networks
(プロバイダ管理型VPNにおける最低帯域保証サービスに関する研究)


 インターネットは既に社会的な情報基盤としての地位を確立しており、年を増すごとに利用者とトラフィック量は増え続けている。医療、教育、重要な業務などでもインターネットの利便性は活用され、より高い信頼性が求められる。インターネットはベストエフォート型のサービスと知られており、利用者の帯域は保証されず輻輳時の帯域の確保が重要となる。従来、帯域の確保が必要となるデータを遠隔地で送受信する場合には専用線が用いられていたが、専用線の設置費用は高く、インターネット上で仮想的に専用網を構築するVPN(Virtual Private Network)が注目されてきた。近年では、プロバイダの所有する閉域網を活用し、加入者への割当帯域を保証するプロバイダ管理型VPNが注目されている。
 本論文は英文4章から成る。第1章では、まずインターネット上での帯域確保に関する課題を挙げる。プロバイダ管理型VPNの利便性について述べ、最低帯域保証サービスの重要性と課題について述べる。最後に、最低帯域保証サービスの実現に必要となる帯域割当方式とプロビジョニングアルゴリズムについて述べる。
 第2章においてホース帯域割当方式を提案する。プロバイダは加入者との契約で定められた要求帯域を満たす割当帯域を提供しなければならないが、その一方で有限な資源である帯域を効率良く利用しなければならない。提案方式では後述するフィードバック型帯域割当方式とVPNホースモデルを統合することで、要求を満たし帯域を効率良く利用する。前者はネットワーク内部の情報を通知パケットによって把握し、ボトルネックリンクの利用可能帯域に応じて帯域を割り当てる。後者はVPNで従来用いられてきた一対一の拠点間のコネクションを集約することで効率良く帯域を利用する。提案方式の評価では、シミュレーションによる定量的な結果を基に、その有効性を示す。
 第3章では非線形計画法を用いたプロビジョニングアルゴリズムを提案する。第2章で述べるフィードバック型帯域割当方式では重みという値を用いて、その値の比に基づいて帯域の割当を行う。提案方式では、VPN加入者の要求帯域とプロバイダが保有するリンク帯域情報から、要求帯域を満たし帯域利用率を最大化する重みを決定する。
 第4章において論文のまとめを行う。以上、プロバイダ管理型VPNにおいて最低帯域保証サービスを実現するための帯域割当方式とプロビジョニングアルゴリズムに関して、それらの有効性を明らかにした。この知見を活かし、今後のVPNや帯域保証が求められる分野において、最低帯域保証サービスの実現が可能となる。

0161202 高井 均
「耐マルチパス性を有する変調方式PSK-VPに関する研究」


 デジタル移動体通信においては、マルチパス波が互いに干渉することで通信品質が劣化しうる。移動と共に、各パスの干渉で著しい振幅と位相の変化を伴うフェージングを生じるが、そのDoppler広がりが伝送速度に比して無視できないくらいの高速フェージングになると、位相振幅擾乱で元情報の復元が難しくなり著しく通信品質が劣化する。一方、高速伝送で情報シンボルが短くなり、相対的にマルチパス波の遅延広がりが無視できない選択性フェージングとなると、信号帯域内の周波数特性の荒れによる波形歪によるシンボル間干渉が急速に増大し、この場合も著しく通信品質が劣化する。
 上記遅延広がりへの対策として、まずスペクトル拡散方式系技術が、そして更なる高速化へ、伝送情報を多数のサブキャリアに振り分けるOFDM方式が登場した。OFDM方式は、シンボル速度を劇的に落とすことで、遅延広がりの影響を本質的に低減できる。今後は、数GHz以上のマイクロ波帯や準ミリ・ミリ波帯も活用し、また、安全運転支援等の高速移動車両への迅速確実な通信に向けて一段と低誤り率が要求され、Doppler広がりでの劣化も無視できない場合が予想される。OFDM方式は、低シンボル速度やサブキャリア間干渉で不利になりやすく、遅延広がりとDoppler広がりへの耐性はトレードオフとなる。加えて、伝送路への推定適応処理を必要とし、パイロット構造によっては、伝送路変動への追従不良が著しい劣化を生じさせうる。
 本研究では、変動伝送路への推定適応処理が不要で高速フェージングに本質的に強い、新たな耐マルチパス性変調方式として、差動PSK方式を基本に位相冗長を加えたものをPSK-VP(PSK with Varied Phase)方式と総称し提案する。基本原理は、付加冗長によって、伝送路の変動に対して異なる変化をする複数種類の有効な検波出力が得られ、検波後フィルタで合成することで、マルチパス環境下でダイバーシチ効果による積極的な改善が得られるものである。情報の載せ方と冗長の入れ方で他にも色々なバリエーションが存在し提案されているが、概して、遅延広がりに対し、改善が得られる上限が存在し比較的小さい。これら耐マルチパス変調方式群にとって、許容遅延時間差を大きくすることは、冗長による所要帯域幅の広がりを抑えることと並んで適用範囲を広げる上で重要な課題となる。
 本研究では、まず、提案するPSK-VP方式に関し、その特性改善機構を明らかにし、冗長位相波形と誤り率特性の関係を解明して最適な位相波形形状を求めた。そして、最適方式パラメタを特定し種々の基本特性を明らかにし、許容遅延時間差と所要帯域幅の点で、同範疇方式群の中で優位であることを確認した。伝搬路解析と併せて、実環境でのPSK-VP方式が発揮する特性を実機評価および伝送実験を通して検証した。さらには、実環境評価も通して方式特性を見定め、方式特性に向いた応用展開およびシステムを検討した。具体的には、分散アンテナによる複局同時送信と組み合わせ、高速移動車両等への路車間通信において、ピコセルを繋ぎ合わせて意図的な無線エリア成形を行うシステムを考案した。そのシステム特性を計算機シミュレーションおよび実機評価にて明らかにし、さらに、フィールド試験にて検証確認し、PSK-VP方式を用いた当該システムの特長・優位性を明らかにした。
 本研究により、高速フェージングに強く、同範疇方式群の中では許容遅延時間差と所要帯域幅の点で優位な、新たな耐マルチパス変調方式PSK-VPの方式技術を確立した。さらに、当該方式の特長を活かして高速移動車両等への迅速確実な通信を実現できる、意図的な無線エリア成形を行うシステムおよび技術を確立し、実応用展開への可能性を示した。

0561020 杉山 憲司
「On the Minimum Weight of Simple Full-length Array LDPC codes」


 誤り訂正符号は雑音のある通信路を介して受信された受信シンボルに誤りが発生しているか否かを検査し、もし誤りが検出されれば決められた手続きにしたがって送信語を推定する技術である。受信語に誤りが発生しているか否かを検出するためには、通信路上の雑音によって送信語のいくつかのビットが反転しても他の送信語と同じになってしまわないことが必要である。相異なる二つの送信語で最も近いものの距離を最小距離という。ここで符号語間の距離とは相異なるビットの数を示す。符号の最小距離は、その符号の性能を評価する上で非常に重要なパラメータである。
 低密度パリティ検査(LDPC)符号(Low Density Parity Check code)は疎な検査行列で定義された線形符号で、1962年にGallagerによって提案された。低密度パリティ検査行列とは、行列のほとんどの成分が0であり、1の成分が非常に疎な行列である。LDPC 符号は、Shannon限界に迫る高い誤り訂正能力を持つとして注目されており、ディジタル衛星放送規格DVB-S2への採用やIEEE802.16e、IEEE802.3(10G BASE-T)などで実用化されている。 しかし、LDPC符号の性能は完全に定量的な評価がなされているわけではなく、例えば最小距離の評価は定性的な性能評価(統計的手法による性能評価)方法を用いることがほとんどであった。これは、LDPC符号のパリティ検査行列が従来、計算機を用いてランダ ムに生成されることが多かったことに起因する。 一方、近年擬似巡回LDPC符号のように代数的符号の構成法を応用したLDPC符号の構成法が提案され、この代数的構造を利用した符号の性能評価方法が提案されるなど、定量的な性能評価を行う研究も行われている。 Simple full-length アレー型 LDPC (SFA-LDPC)符号は、代数的に構成された LDPC符号の部分クラスであり、単純で整った数学的構造を持つ。本論文では、このSFA-LDPC符号の最小重みについて議論する。 SFA-LDPC符号の最小重みは, Yang, Mittelholzerらにより代数的なアプローチから研究がなされてきたが、真の最小重みは、小さなパラメータで規定された符号のクラスについて知られているのみである。パラメータが 大きな符号については、その最小重みの下界, 上界が議論されているが、上下界の間には大きな隔たりがあり、正確な最小重みの解明にはいたっていない。 純粋に代数的なアプローチだけに頼ったのでは、符号を規定するパラメータが大きくなるに従い、仔細に検討すべき符号語のパターンが爆発的に増加するため、最小重みを特定することは困難であると予測される。 そこで、本稿ではまずSFA-LDPC符号の上界値を検査する算法を提案する。ある符号の中に特定の重みを持つ符号語が存在するか否かを検査するには、その特定の重みを持つ符号ベクトル全数を検査することにより可能であるが、このようなアプローチは検査すべき符号ベクトルの数が膨大になるため現実的ではない。本稿のアプローチは、代数的なアプローチに計算機を援用し、上記の代数的な検討の手続きを自動化するものである。この方式により、最小重みが未知であったいくつ かのSFA-LDPC符号について、その正確な値を明らかにすることができた。
 本稿の後半では検査行列の列重みが4のとき、および5のときのSFA-LDPC符号の最小重みの上界の評価の代数的証明を与える。前半の結果を詳細に分析することにより、SFA-LDPC符号を規定する2つのパラメータのうちのひとつ(検査符号の列重みを制御するパラメータ)を固定した場合、もう片方のパラメータを変えてもその符号のなかに必ず含まれる符号語のパターンを特定できる。そのパターンを代数的に証明することにより、最小重みの上限の評価を示す。この最小重みの上限の評価手法を用い、検査行列の列重みが4のとき、および5のときのSFA-LDPC符号の最小重みを、それぞれ10, 12であることを示した。これらは現在までに知られている最小重みの上限の評価を大幅に改善した評価である。

0561211 Fawnizu Azmadi Hussin
「Studies on Core-Based Testing of System-on-Chips Using Functional Bus and Network-on-Chip Interconnects」


 The tests of a complex system such as a microprocessor-based system-on-chip (SoC) or a network-on-chip (NoC) are difficult and expensive. In this thesis, we propose three core-based test methods that reuse the existing functional interconnects―a flat bus, hierarchical buses of multiprocessor SoCs (MPSoC), and a NoC―in order to avoid the silicon area cost of a dedicated test access mechanism (TAM). However, the use of functional interconnects as functional TAMs introduces several new problems.
 During tests the interconnects―including the bus arbitrator, the bus bridges, and the NoC routers―operate in the functional mode to transport the test stimuli and responses, while the core under tests (CUT) operate in the test mode. Second, the test data is transported to the CUT through the functional bus, and not directly to the test port. herefore, special core test wrappers that can provide the necessary control signals required by the different functional interconnect are proposed. We developed two types of wrappers, one buffer-based wrapper for the bus-based systems and another pair of complementary wrappers for the NoC-based systems.
Using the core test wrappers, we propose test scheduling schemes for the three functionally different types of interconnects. The test scheduling scheme for a flat bus is developed based on an efficient packet scheduling scheme that minimizes both the buffer sizes and the test time under a power constraint. The scheduling scheme is then extended to take advantage of the hierarchical bus architecture of the MPSoC systems. The third test scheduling scheme based on the bandwidth sharing is developed specifically for the NoC-based systems. The test scheduling is performed under the objective of co-optimizing the wrapper area cost and the resulting test application time using the two complementary NoC wrappers.
 For each of the proposed methodology for the three types of SoC architecture, we conducted a thorough experimental evaluation in order to verify its effectiveness compared to other methods.

 

0261005 怡土 順一
「ヒューマノイドロボットのためのマルチモーダルインタラクションに関する研究 Multi-modal Interaction System for Humanoid Robots」


 近年、実環境下での使用および人間との共存を目的としたヒューマノイドロボットの研究が盛んに行われていおり、人との協調作業や、人の生活空間における移動等が可能になりつつある。ロボットの機構・外観が人間に近いものに変化することで、人とのコミュニケーション形態も変容しつつあるが、自然なコミュニケーションと呼べるものは未だ実現されていない。 本研究の目的は、人とヒューマノイドロボットとのインタラクションをより円滑に行うことができるシステムを構築・評価する事である。実現されたシステムは、顔情報計測によるアイコンタクトと、大語彙連続音声認識エンジンによる音声認識を軸としたマルチモーダルなインタラクション機能を特徴とする。
 人間とロボットとの自然なコミュニケーション手段として音声対話を用いることは有用であり、従来より数多くの研究がなされてきた。しかしそれだけでなく、表情や視線などの非言語情報も自然な対話を成り立たせる上で非常に重要であると考えられている。そこで本研究では、まず、研究プラットフォームとして受付案内ロボットASKA を構築し、それ用いて発話時における利用者の顔情報の計測、およびその情報の傾向分析を行った。この結果を利用して、アイコンタクトを用いた対話機能をASKA 上に実装し、その検証実験を行った。また、ジェスチャ認識と音声認識を統合した対話機能を実装することにより、指示語を含む発話の認識を可能にするなど、より自然な対話を可能にした。さらに、ASKA 頭部を顔ロボットとして用いることで、遠隔対話用メディアとしてロボットを利用する際の顔情報の有効性についても検証した。
 また、ヒューマノイドロボットHRP-2 を利用したロボットシステムを新たに構築し、ASKAの機能を移植することでそのポータビリティを確認した。それに加え、以前のシステムでは機構的制約により困難であった把持を伴う受け渡し機能や、アイコンタクトを利用した似顔絵作成機能を実装することで、より多彩なインタラクションを可能にした。また、HRP-2 の移動機能を活用し、視覚によるナビゲーション機能を実装することで、より幅広いタスクが実行可能である事を示した。さらに、愛・地球博でのデモンストレーション等を通して、実環境下で実証実験を行った。
 これら3 種類のインタラクションロボットシステムの開発・運用を通じて、アイコンタクトをはじめとする非言語情報と音声情報を人とヒューマノイドロボットとのコミュニケーションに利用する事の有効性を確認した。

 

0561207 奈木野 豪秀
「音響空間可視化手法を応用した効率的な音声コーパス構築フレームワーク」


 隠れマルコフモデルによる音響モデルをベースとした、音声認識アプリケーションの開発において、タスク依存性の問題により、高性能な音響モデルを作成するためには、目的タスクに特化した音声データの収集が必須とされている。しなしながら、音声データの収集は膨大なコストと時間を必要とし、音声認識アプリケーションの開発コスト全体を圧迫している。
 本論文は、以上の課題を踏まえ、音響空間の可視化手法、既存音声コーパスの目的タスクに対する再利用性の判定手法、収録話者の予備選択による音声コーパス構築の低コスト化に関する手法を提案する。まず、音響空間の可視化を可能とすることで、タスク間,タスク内の音響的変動を直感的に把握できることを確認し、従来の可視化手法と比較においても、その優位性を示した。再利用性の判定においては、従来は、既存音声コーパス群から、音響的に特徴の近い音声データを選択することは出来ても、選択後作成された音響モデルの性能を保証することが困難であった。提案する再利用性判定手法を用いることで、目的タスクと既存タスクとの可視空間上の分布の重なり具合から、比較的高精度に、再利用性を把握できることを確認した。次に、収集対象の候補話者の少量音声データから、可視化手法を用いて音声認識性能向上に寄与する話者を予備選択し、選択された話者の音声データを収集する手法を提案した。実験では、従来の無作為に話者を選択する手順と比較し、大幅なコスト削減が可能となることを実証した。

 

0761003 市川 治
Noise Reduction Front-End for Robust Speech Recognition using Multi-Channel Signals and Harmonic Structures 
(マルチチャンネル信号と調波構造を利用したロバスト音声認識のための雑音除去フロントエンド)


 一般に音声認識は背景雑音の影響を受けやすい。一方で、日常生活において経験する雑音は、多種多様である。例えば、自動車内では、走行雑音や空調騒音の他に、助手席や後部座席の同乗者からの発声、ラジオなどオーディオ機器からの再生音、ワイパー動作音、他車通過音などの非定常雑音が存在する。また、ほぼ定常であっても、高速・窓開け走行などの走行雑音の下では、非常に低いSN比となり、音声認識の精度は大きく劣化する。
 本論文では、それら多様な雑音に対処するために、3つの手法を提案・検証する。1つ目の手法は、プロファイルフィッティング(PF)と名付けた新しいマイクロフォンアレイの技術である。到来する音声の角度別パワー分布(観測プロファイル)に着目し、これを既知のテンプレートプロファイルに成分分解することにより、目的方向の信号成分を抽出する。この技術は、音源位置推定として用いることもできる。2つ目の手法は、SSEC (Simultaneous adaptation of spectral Subtraction and Echo Cancellation)と名付けた新しいエコーキャンセラの技術である。これは、走行雑音が定常であるという仮定のもとに、スペクトルサブトラクション形式のエコーキャンセラの適応と定常雑音成分の推定とを同時に行う。これにより、走行中にオーディオ音声が再生され続けているという状況でも走行雑音成分とエコー成分(再生音)の両方を推定し除去することができる。3つ目の手法は、LPE (Local Peak Enhancement)と名付けた音声強調法である。これは、自動車の高速・窓開け走行などの広帯域に広がった雑音に埋もれかかった音声を、調波構造を利用して強調する。従来技術では、正確なピッチ周波数の推定と有声音・無声音判定が必要で、高騒音環境下ではしばしばその精度が問題となったが、提案手法では、観測パワースペクトルそのものから、直接フィルタを設計することにより、それらへの依存性を排除した。

 

0561205 坪井 祐太
Domain Adaptation of Statistical Word Segmentation System
(統計的単語分割の分野適応手法)


 分かち書きされていない日本語や中国語では文の単語への分割は自明でない。これらの言語の単語分割問題においては統計的な手法が適用され、その有効性が示されている。しかし、実際の応用では単語分割を学習したデータと異なる分野への適用時に語彙や文体の違いによる性能の低下が常に課題となっている。そこで学位論文では単語分割器の分野適応時に有効な以下の2つの手法を提案する。
 1点目は、文の一部にのみ単語境界情報を付与する(部分的アノテーション)手法である。文中の重要と思われる部分のみに集中できることにより、新しい分野の学習データの作成が効率的になる。本研究では文中に部分的にアノテーションが付与されたデータを用いて条件付確率場(CRF)を学習する手法を提案する。CRFは単語分割問題に適した統計モデルであることが知られているが、既存のCRF の学習法では文全体がアノテーションされたデータを想定していた。そこで、周辺尤度を目的関数にすることで部分的アノテーションを用いてCRFを学習する方法を提案する。
 2点目は、適応先分野での性能を最大化するような重要度重みを適応元データに付与する手法である。本研究では学習データとテストデータの入力の密度比をサンプルから直接推定する方法を提案する。提案手法の計算量はテストサンプル数とはほぼ独立なため、提案手法はアノテーションされていない適応先データが大量に入手可能である単語分割問題に適している。
 本研究では、上記の提案手法により統計的な単語分割器の適応先での性能向上を検証した計算機実験の結果を示す。

0661201 池谷 彰彦
Video Mosaicing Based on Structure from Motion for Geometric Distortion-Free Document Digitization
(幾何歪みのない文書デジタイジングを目的とした動画像からの三次元復元によるビデオモザイキング)


 携帯電話などのカメラ付き携帯機器を用いて文書デジタイジングを行なう手法として、ビデオモザイキングに関する研究が盛んに行なわれている。ビデオモザイキングでは、紙面全体を動映像として拡大撮影し、各フレーム画像の位置合わせを行なうことで、モザイク画像と呼ばれる一枚の高解像度画像を生成する。しかしながら、一般に、モザイク画像には次に述べる2種類の幾何歪みが発生するという問題があった。1つ目は、カメラが紙面と正対していない場合に発生する射影歪みである。2つ目は、見開きの本のように紙面が湾曲している場合に発生する曲面歪みである。
 本研究では、これらの幾何歪みのないモザイク画像を生成する手法として、2つのビデオモザイキング手法を提案する。 1つ目は、対象を平面に限定し、動画像からの三次元復元によって推定された各フレームのカメラ外部パラメータを用いて、仮想的に正対化した、射影歪みのない超解像モザイク画像を生成する手法である。2つ目は、カメラ外部パラメータと併せて紙面の三次元形状を推定するように上記手法を拡張することで、湾曲紙面を仮想的に平面に展開した、曲面歪みのないモザイク画像を生成する手法である。
 提案手法に基づく試作システムを開発し、平面、曲面の2種類の紙面に対して実験を行なった。モザイク画像上の歪みを定量的に分析した結果、平面、曲面の両方において、幾何歪みが除去されていることを確認した。

0461039 村上 ユミコ
「The ability of quantum information processing under the resource-restricted circumstances」


   This dissertation provides the studies on quantum information processing, especially under the circumstances that the computational resources are restricted. Quantum computing is a new computational paradigm based on the quantum mechanics. It has excellent potential abilities of information processing compared to traditional computing called classical computing. However, ideal quantum computers would not be implemented under the current technology and the various computational restrictions are considered to be imposed on the actual quantum computers. Thus, it is quite important to clarify the ability of quantum computing under such restricted circumstances. The main results of this dissertation are as follows.
 First, the recognition ability of the quantum computational model with the memory restricted to a stack, quantum pushdown automata, is compared with that of the deterministic pushdown automata in a deterministic scene. In the computational model theory, the relationship between the recognition abilities of the quantum and classical automata is still an open problem and some negative results which show that the ability of the quantum computational model is weaker than tha classical counterpart are proposed. Thus, it is not obvious that the recognition ability of quantum automata is superior. The dissertation shows that quantum pushdown automata can solve a certain problem deterministically which cannot be solved by deterministic pushdown automata. The modified generalized Ogden’s lemma is utilized to show that deterministic automata cannot solve the problem. This implies that quantum pushdown automata can be more powerful than classical counterparts.
 Second, a new quantum secure direct communication protocol is proposed. Most of the current quantum secure direct communication schemes use the brilliant resource unique to the quantum information processing, quantum entanglement, which requires the extremely delicate handling. In contrast, the proposed protocol employs no entanglement resource at all. Thus it can be said that the feasibility of implementation of this protocol is higher than the other proposals under the current technology. The proposed protocol can send quantum information as well as classical information. Thus, in order to discuss the security of the proposed protocol, a new criterion is needed which can measure the amount of quantum information. This dissertation introduces a new criterion that is based on fidelity of quantum states, and it is shown that the proposed protocol satisfies it against the man-in-the-middle attack.

0561202 加藤 健一
「SOS最適化を用いたむだ時間系の安定解析とその応用に関する研究」


 情報通信におけるデータ転送や信号処理、生理科学における反応など、我々の身の回りには原因に対する結果が遅れて現れるような現象(むだ時間) が存在する。むだ時間はフィードバック系を不安定化させたりシステムの性能を劣化させるため、 その安定性解析や制御系設計に関する研究が盛んに行われている。
 近年では、コンピュータの高性能化や内点法に代表される数値計算法の登場により、半正定値計画問題に対する高速解法を利用した安定性解析や制御系設計手法が注目を浴びている。しかしながら、無限次元の微分差分系として表現されるむだ時間系に対して、有限次元の常微分方程式系と親和性の高い線形行列不等式(LMI) が利用されているため、一般にその手法は十分条件、しかも必要十分条件との隔たりがより大きい保守的な解決策として与えられる。
 そこで本論文では、そういったむだ時間を含む系に対して、保守性の低い一解析手法を与える。また、それを制御系の評価手法として応用する。
 まず、むだ時間の長さが時間的に変化しない場合を考え、complete-type のLyapunov-Krasovskii 汎関数と二乗和多項式(Sum Of Squares) のための数値解析ツールSOSTOOLS を用いた安定性解析について考察する。complete-type のLyapunov-Krasovskii 汎関数の存在性は、線形むだ時間系の安定性と必要十分の関係にあることが知られているが、LMI では保守性が高くなるため、安定性を保つむだ時間の範囲を小さく見積もってしまう。ここでは二乗和多項式として書かかれる条件の有効性を、数値計算により確認し、保守性の低減と計算時間のトレードオフに関して検討した。
 次に、状態依存むだ時間系と呼ばれる系に対する近似モデル表現とその解析手法を提案する。むだ時間の長さが状態に依存して変化する系は従来、むだ時間の変動を不確かさとして捉え、それに対してロバスト制御理論を適用するというアプローチが採られてきたが、確定的な挙動を示す系を不確定系としてモデル化すると見積もりが保守的となる。 このため提案法では、 離散時間非線形状態方程式として状態依存むだ時間系を近似し、その安定性解析を、SOSTOOLS を用いた共通リアプノフ関数の探索問題に帰着する。これにより不確定系としてのモデリングに比べ、 より正確な動特性の記述や解析が可能になり、保守性が低減できる。
 最後に、SOS 安定性解析を応用して、制御系に対する一評価手法を提案する。ここではビジュアル・フィードバック系をむだ時間系の一つとして取り上げ、実際に実験を目的として設計された制御系のむだ時間に対する安定余裕を見積もる。

0361027 中村 善一
  「日本語筆跡に現れる個人性の抽出とオンライン筆者照合に関する研究
Studies on Extraction of Individuality Appeared in Japanese Handwriting and Online Writer Verification」


 オンライン筆者照合の研究は筆跡を署名に限定したものがほとんどで、一般的な文字列を対象としていない、筆跡のどの様な特性に個人性が現れるのかという検討が十分なされていない、動的特性が重要視され動的特性と静的特性を総合的に用いて真偽を判定するという観点に乏しいといった問題がある。そこで、本研究では、一般的な漢字文字列を対象としてどの様な特性値に個人性が現れるかをまず明らかにし、その結果に基づいたオンライン筆者照合方法を提案し実験によりその有効性を評価することを目的とする。
 まず、漢字に近いストローク構造を持つカタカナ文字列を対象にして予備実験を行う。筆跡に個人性が現れるのは個人が習得している書写技能に差があるためと考え、書写技能に基づく特性値を定義し、それら特性値に個人性が現れることを明らかにする。さらに、筆者照合および筆者識別実験を行い、抽出した特性値を用いて筆者識別・照合が可能であることを示す。
 つぎに、漢字文字列について検討する。書写技能に基づく特性値は筆跡鑑定の検査項目と類似しているため、特性値を筆跡鑑定の知見に基づいて整理および追加した。抽出した特性値を分析することで個人性が現れやすい特性値を明らかにし、これら特性値の筆者識別力の評価を行い筆者照合の可能性を示す。
 さらに、利用者がシステムの提示するパスワードを入力することで個人照合を行うシステムを想定し、そのための筆者照合方法を提案する。特性値の種類ごとに本人間と他人間の距離分布を求め、それに基づいて特性値の選択を行う。つぎに、真正筆跡の各特性値は参照筆跡の平均値に近いものが多く、遠いものは少ないという考えに基づき、各特性値の参照筆跡の平均値からの偏差の度数分布を基にした識別器を提案し、その有効性を筆者照合実験を行うことにより明らかにする。
 最後に、提案した筆者照合方法が、偽造筆跡の排除に対して有効であるか、他の漢字文字列を用いても有効であるかどうかを検討する。十分に訓練された偽造筆跡を収集して実験を行い提案手法が偽造筆跡に対しても有効であること、さらに、他の漢字文字列に対しても有効であることを示す。

0461019 塚田 祐基
Quantitative Studies on the Systems of Rho-Family Small GTPases and Regulation of Cellular Morphodynamics
(Rhoファミリー低分子量GTP結合タンパク質と細胞形態制御に関する定量的な研究)


 動的でありながら恒常性を保つ機能は、生物の本質的な性質の一つである。本研究では細胞形態の変化と、それを制御するRhoファミリー低分子量Gタンパク質シグナルに注目し、発生初期における細胞外の劇的な変化に対して、システムを柔軟に対応させ恒常性を保つ細胞機能について議論する。同時に、その様な動的な生命現象を調べるために必要な方法論を検討し、ライブセルイメージングデータの新しい定量化手法を提案する。また、この手法を実際のデータに適用することでその実用性と有効性を確認する。ここで議論される手法は、ライブセルイメージング技術の発展と、計算機性能の向上により初めて実現されたものであり、生命科学研究の方法論として新しい指向を持つものと言える。別な観点から言えば、定量的な解析から定性的な知見を得ることを目的とした手法についての議論である。
 発表ではまず、発生初期の神経細胞に代表されるような、細胞形態の制御が、生物個体にとってどの様に重要であるかを概観し、これまでの研究で明らかになったことと、これまでの研究手法で調べることが難しかった動的な生命現象について述べる。さらに、その様な動的な現象を扱うための方法論と、関連する研究分野について触れる。次に、細胞形態の制御に深く関わっていることが知られているRhoファミリー低分子量Gタンパク質シグナルと、その動的な性質を調べるための数理モデル構築、計算機シミュレーションについて述べる。また、シミュレーションにより得られた結果から、Gタンパク質間の相互作用によって示される細胞内部状態の変化とその機能的意義について議論する。続いて、計算機を用いたライブセルイメージングデータの定量解析について議論する。ここでは形態変化の時系列解析をする際に直面する問題を概観し、それを解決するために開発した手法であるEdge Evolution Tracking (EET)と、それを形態変化中の培養細胞における、Rhoファミリー低分子量Gタンパク質の時空間活性分布を記録した蛍光共鳴エネルギー移動(FRET)画像に適用した結果を示す。また、得られた定量データから導かれた定性的な性質と、それを元に考えられる細胞機構についての仮説を議論する。さらに、先に構築した数理モデルを空間的に拡張し、実験で得られた結果と数理モデルの結果を統一して解釈することで細胞形態制御の全体像を示す。また、ここで得られた結果を基に、タンパク質シグナルの相互作用と細胞形態の変化が内部状態の変化を保ちつつ、環境の大きな変化に対応し、全体として恒常性を保つ機能について議論する。
 最後に、本研究で得られた結果を総括し、細胞形態変化の制御という極めて動的な現象についての考察を述べるとともに、この様な生命現象を調べるための方法として有力であると考えられる数理的手法と定量的な実験方法の今後の展開について述べる。

0661029 閻 奔
Characterizing, Deriving and Validating Safety Properties of Integrated Services in Home Network System
(ホームネットワークシステムにおける家電連携サービスの安全性の定義、抽出、検証に関する研究)


 The home network system (HNS, for short) is a system consisting of multiple networked household appliances and sensors. The great advantage of the HNS lies in the flexible integration of different home appliances through the network. The integration achieves value-added services. In developing and providing the HNS integrated services, the service provider must guarantee that the service is safe for inhabitants, house properties and their surrounding environment. Assuring safety is a crucial issue to guarantee a high quality of life in smart home.
 In this research, we proposed a total framework for characterizing, deriving and validating the safety properties within the integrated service of emerging home network system, consisting of the following three contributions.
 The first contribution is to propose a way to formalize the safety of the HNS integrated services, considering the nature of the HNS and integrated services. The safety was defined as (1) local safety which is the safety to be ensured by the safety instructions of individual appliances, (2) global safety which is specified over multiple appliances as required properties of an integrated service, and (3) environment safety which is prescribed as residential rules in the home and surrounding environment. We also formulated the safety validation problem based on the safety classification.
 The second contribution is to propose a requirement-engineering approach for deriving the high quality verifiable safety properties systematically. Specifically, we proposed a new hazard analysis model, called HNS Hazard Analysis Model (HNS-HAM, for short), which consists four levels. By constructing HNS-HAM and investigating potential hazards within the given HNS model, the safety properties and their responsible operations can be derived. Moreover, to enhance the reusability of the HNS-HAM, we also have proposed the notion of the hazard template which can be reused for various kinds of the HNS objects for the common hazard context.
 The third contribution is to propose a method for validating the safety properties by using the technique of Design by Contract (DbC, for short). The key idea is to cope with the safety validation problem as a set of DbC contracts between calling and callee objects. The contracts can be verified during the runtime of the program under testing. During the execution, if a contract is broken, an exception is thrown. Thus, the safety validation problem can be reduced to the testing of the HNS implementations.
 We believe that the proposed total framework can help the HNS developers significantly in designing and implementing safe HNS solutions.

0661006 小坂田 泰宏
無信号交差点非優先側ドライバ通過行動モデルの構築と出会い頭事故発生シミュレーション


 近年、交通事故件数および交通事故死亡者数ともに減少傾向にあるが、依然として高いレベルにあり、交通事故に対する対策が求められている。交通事故の中でも、出会い頭事故は、追突事故に次いで2番目に多く発生しており、死亡事故などの重大な事例に繋がるケースが多く、有効な対策が求められている。また,出会い頭事故の約80%を占める無信号交差点での事故原因の多くはヒューマンエラーであると言われている。本研究では、無信号交差点での出会い頭事故に焦点を当てて、ヒューマンエラーや人間の機能の劣化が事故発生に及ぼす影響を定量的に評価するコンピュータシミュレーションについて考察する。
 ヒューマンエラーと出会い頭事故発生の関係を分析するためには人間の認知情報処理のモデル化が必要となる。まず、日常的に模範的な運転を行っているドライバの無信号交差点における非優先側交差点通過行動をタスクフローとして記述した研究結果を参考として、非優先側ドライバの交差点通過行動をコンピュータシミュレーションで再現するためのドライバモデルを作成した。続いて、開発したドライバモデルをいろいろな交通条件下でシミュレーションするため、交差点通過行動を再現する交通シミュレーションシステムを開発した。これによって、例えば、交差点進入直前に十分な安全確認を行わないドライバが交差点に接近する交差車両を見落として、衝突に至るまでのプロセスを時系列で追跡することが可能になった。また、このドライバが事故を起こす交通条件を明らかにすることもできるようになった。
 次に、過去の出会い頭事故の分析から見つけられた典型的な数個のヒューマンエラーをドライバモデルに組み込んだ。そのモデルを用いていろいろな条件下で交差点通過シミュレーションを繰り返すことによって、各ヒューマンエラーが出会い頭事故およびヒヤリハットに至る割合を調べることができる。その結果,交差点や一時停止標識を見落とすヒューマンエラーは他のヒューマンエラーに比べて出会い頭事故およびヒヤリハットに至る割合が高いことが確認できた。最後に,構築した交通シミュレーションシステムを用いて,出会い頭事故対策として、一時停止線手前でドライバに警報を出すアラームシステムの効果を評価した。特にドライバの心身状態が低下してアラームシステムへの反応遅れがあることを考慮したとき、一時停止線で停止することを気づかせるアラームが必要であることが確認できた。
 本研究で提案した交通シミュレーションシステムを使うことによって、ドライバの認知情報処理プロセスで起こるいろいろなエラーや機能劣化が事故やヒヤリハットの発生件数に及ぼす影響が評価できるとともに、いろいろな事故対策がドライバの行動をどのように変え、事故やヒヤリハットの発生防止にどの程度効くのかを評価することができる。

0561209 牧田 孝嗣
ネットワーク型ウェアラブル拡張現実感における注釈情報の共有と提示に関する研究


 本論文は、ネットワークによる情報の獲得及び提供が可能なウェアラブル拡張現実感における注釈情報の共有と提示に関する研究である。
 ウェアラブル拡張現実感は、装着して使用するウェアラブルコンピュータを用いて現実環境に仮想環境を重畳して提示する技術であり、これにより現実環境中に存在するオブジェクトに関する注釈情報を直感的に提示することが可能である。一般的なウェアラブル拡張現実感の利用環境を想定した場合、注釈の内容や対象物体の位置は時間経過とともに変化する場合も考えられるため、注釈情報の更新は重要な課題である。さらに、直感的な情報提示を行うには、注釈の提示方法の工夫(ビューマネジメント)が必要である。本研究では、自由に移動可能なウェアラブルコンピュータのユーザが無線ネットワークを利用可能であることを前提とし、ネットワーク共有された注釈情報の獲得による最新の注釈情報の提示の実現、及びビューマネジメントによる注釈の理解度の向上を目的とする。
 従来のウェアラブル拡張現実感システムは、注釈情報をユーザが装着するウェアラブルコンピュータにあらかじめ保持させるものがほとんどであり、注釈情報の追加・更新を行うことが困難であるという問題があった。これに対し、注釈情報の追加・更新が効率的に行えるネットワーク共有型の注釈情報データベースを構築した。これにより、注釈情報の提供者は,サーバ上のデータベースを更新することで、常に最新の注釈情報をユーザに提供できること、ウェアラブルコンピュータのユーザは、無線ネットワークを介して最新の注釈情報を獲得し、閲覧できることを示した。また、実時間で移動する物体への注釈付けを、クライアントサーバ通信とP2P通信を併用したハイブリッドP2Pにより実現した。
 さらに、注釈の理解度の向上のために、ウェアラブル拡張現実感システムのユーザの視界中に存在する注釈対象物体の存在領域を推定し、理解度の低下に繋がる要素をペナルティ関数化することで、ペナルティの最小化によるビューマネジメント手法を提案した。提案手法に基づくシステムを作成し、ウェアラブルコンピュータのユーザを注釈対象とした実験により、ビューマネジメントを利用した注釈付加の有効性を確認した。

0661018 中村 幸紀
不規則遅延を考慮したネットワーク制御系の設計に関する研究


 近年のイーサネット機器の低価格化により、産業用計装機器にもネットワークポートが標準装備されるようになってきた。これを背景に、汎用ネットワークを用いたネットワーク制御系(NCS; Networked Control Systems)の研究が注目されており、da VinciやZeusに代表される遠隔医療への応用などが期待されている。 しかしながら、ネットワークの利用状況に応じて伝送遅延は不規則に変動するため、制御性能の劣化を引き起こし、最悪の場合フィードバック系の不安定化を招く。このため、不規則遅延の影響をいかにして抑えるかが課題であった。
 通常NCSにおいては、伝送遅延は未知の時変要素としてモデル化されることが多い。一方、パケットの送信時にタイムスタンプを付加し、受信時に遅延時間を求める方法が知られている。この計測法により、対象とするNCSは、遅延時間がスイッチング信号となる系として定式化できるため、切替え制御の設計法を適用することができる。
 そこで、本論文では、タイムスタンプ情報に基づいて遅延を補償するNCSの設計について議論する。
 まず、遅延時間に応じてゲインを切替えるオブザーバ(切替え型オブザーバ)を提案する。オブザーバの設計問題は、切替えを伴う推定誤差系の安定化問題へ帰着される。また、ジッタバッファを用いたものに比べて推定誤差の収束速度が改善される。
 つぎに、実ネットワーク上での遅延補償問題に対する提案法の有効性について議論する。ここでは、タイムスタンプの実装で要求される送受信側の計算機時刻の同期について検討し、必要な精度内で同期できることを確認する。また、NCSの一例として、通信路を介した複数機器による連動作業をとりあげ、提案法が実際のネットワーク上で動作することを実験により検証する。

0661002 上野 秀剛
Measuring and Characterizing Eye Movements for Performance Evaluation of Software Review
(ソフトウェアレビューにおける性能評価のための視線計測と特徴分析)


 ソフトウェアの品質を向上させる方法として、開発時に作成される文書を読むことで誤りや不具合を検出するソフトウェアレビューが行われている。今までにソフトウェアレビューにおける不具合の検出数や検出効率(レビュー性能)を向上させるために、さまざまなレビュー手法やその支援環境が提案されている。しかし、レビュー性能には、開発者の個人差が大きな影響を与えている。そのため、レビュー手法や支援環境の開発のみならず、レビューにおける開発者の行動を分析し、どのような行動がレビュー性能に影響を与えているかを理解することで、開発者教育や支援を行う必要がある。本研究では、開発者の行動の違いがレビュー性能(不具合検出効率や不具合検出率)にどのような影響を与えているかを明らかにすることを目的とする。 レビュー行動を定量的に分析するために、本研究ではレビュー時における開発者の視線を計測する手法を提案する。視線移動を行単位、文書単位で計測することで、文書の読み方とレビュー性能の関係を分析することが可能となる。本研究では、レビューにおける視線移動を(1)文書を構成する各行の間の遷移と、(2)複数の文書を用いたレビューにおける文書間の遷移の2つに分類し、実験からレビュー性能との関係を分析する。
 まず、各行の間の視線遷移を分析するための実験として、ソースコードを用いたコードレビューについて視線移動とレビュー性能を計測した。実験の結果、レビュー開始時にコード全体を概観するような動作"scan"が多くの被験者で見られた。定量的な分析の結果、scanの時間が短い開発者は不具合の検出に時間がかかる傾向が見られた。この結果は、従来のレビュー手法では対象とされていなかった、行単位での読み方の違いがレビュー性能に影響を与えていることを示している。このことから、開発者の教育において、レビュー開始時に時間をかけてコード全体を概観するといった、より具体的な指示をすることで、レビュー性能を高めることができる可能性がある。
 次に、文書間の視線遷移を分析するためにソースコードの他に、要求仕様書や設計書を用いたレビューにおける視線移動と不具合の検出割合・効率を計測する実験を行った。実験の結果、レビュー対象文書の上位文書(要求仕様書や詳細設計書)を長時間読んでいる開発者ほど、効果的に不具合を検出している傾向が見られた。特に、コードレビューにおいては要求仕様書と詳細設計書をバランスよく読んでいる開発者ほど、多くの不具合を検出している傾向が見られた。この結果は、経験的に言われている上位文書を読むことの有用性について定量的な結果を示したものであり、レビューの教育における有用な証拠として用いることができると考える。

0661007 柿添 有紀
適応環境オブザーバを用いた遠隔操作システムに関する研究


 ロボットマニピュレータを用いた遠隔操作システムでは通信回線を介して情報通信を行うため、通信遅延が発生し、安定性、操作性上の問題が発生する。従来の研究は操作性に着目した研究と安定性に着目した研究とに大別され、安定性と操作性を両立させた研究は少ない。安定性に着目した研究事例として、受動性の原理やロバスト制御を用いた方法がある。これらの方法はどのような通信遅延に対しても安定を保証するが、作業環境の情報を正確に操作者に伝えることが困難である。一方、操作性に着目した研究事例として、作業環境モデルを用いる方法がある。このシステムは作業環境情報をシステム内に組込み、操作者は作業環境情報を元に遠隔マニピュレータを操作するため通信遅延の影響を考慮しなくとも良い。また、コンピュータグラフィックスを用いた視覚的補助や作業環境モデルに基づいた反力提示を行うことで良好な操作性を保持している。しかしながら、このシステムは予め作業環境情報を組み込むことを必要とするため、環境情報に誤差が存在する場合には十分な制御性能を発揮することができなくなる。また、操作性に着目した研究は理論的に安定性を保証していない場合が多く、不安定化する恐れがある。加えて、より良好な環境情報提示を行うためには厳密な位置状態と力状態の同期、ならびに作業環境の剛性と歪情報を再現することによる力覚情報の提示が必要である。しかしながら、従来の研究ではこれらが達成されていない。それゆえ、本研究では安定で操作性の良い新しいシステム構成および制御法を提案する。提案する方法は、従来の作業環境情報の組込み型遠隔操作システムに対して、適応環境オブザーバによる剛性と初期接触点の推定による作業環境の力覚情報の再現を保証する。また、作業環境情報の動的な推定を行うことにより、環境モデルの誤差の影響も解消する。加えて、位置と力のハイブリッド制御則の採用により、厳密な力状態の追従も保証することで操作者に対して厳密な環境情報提示を行うことができる。重要な役割を果たす適応環境オブザーバの設計法として、2通りの方法を示し、実験により有効性を確かめる。一方は、従来からあるリアプノフ関数を用いた設計法で、厳密な力追従と1cm程度の精度での環境提示が可能であり、簡単なゲイン設定で環境推定および制御を行うことができる。他方は、時間軸変換を用いる方法で、これによって非線形なオブザーバに対して線形な誤差システムが導出でき、線形制御理論をベースとして過渡応答、振動特性などを自由に設計することができる。また、ある程度の非線形性を持つ作業環境に対しても振動性の少ない環境推定を行うことができ、安定で数mm程度の精度で良好な作業環境提示ができる。二台のロボットマニピュレータ(PA−10)と力・モーメントセンサを用い、仮想的に1秒間の通信遅延を発生させ、提案した二つの方法で設計した適応環境オブザーバを用いた実験を行い、提案手法の有効性を確認した。この結果、通信遅延下においても安定で操作性の良い遠隔操作システムを構成できることがわかった。

0461002 浅井 俊弘
全方位レンジファインダと全方位カメラを用いたデータ取得支援による屋外環境の三次元モデル化に関する研究


 本論文は、屋外環境を仮想化するために、全方位レーザレンジファインダと全方位カメラを用いた効率の良いデータ取得の実現と、それらの全方位データの統合による高精度な三次元モデルの生成に関する研究である。
 広域な都市環境三次元モデルは、都市計画、三次元地図、仮想旅行体験等の様々なアプリケーションへの応用が期待されている。そのため、従来からカメラやレーザレンジファインダを用いて実物体の三次元モデルを自動生成する手法の開発が盛んに行われている。特にレーザレンジファインダは物体の形状を高精度に計測できるため広域な都市環境のモデル化に多く用いられている。しかし、レーザレンジファインダが形状を計測できるのはレーザが照射された部分に限定されるため、広域な環境全体のモデルを生成するには、多地点で取得したレンジデータを統合する必要がある。さらに、物体の色情報の取得にはカメラ等を用いる必要があるため、レーザレンジファインダを用いた広域な屋外環境の三次元モデル化には、1)多地点で取得したレンジデータの高精度な位置合せ、2)計測回数の削減を目的とした効率的な計測位置の決定、3)レンジデータとテクスチャの正確な統合、が課題となる。
 本発表はまず、屋外環境の多地点で取得したレンジデータを高精度に位置合せするために、建造物の壁面や道路面などの屋外環境に多く存在する平面領域を利用した位置合せ手法を提案し、シミュレーションデータによる精度評価と実環境で取得したデータに適用した結果について示す。次に、広域かつレンジファインダが進入可能な領域が制限される屋外環境において、効率的にモデル化対象領域の未計測部分を削減するためのデータ支援システムを提案する。システムは、計測部分の削減効率と位置合せのための平面部分の取得を考慮して計測の推奨度を算出し、モデル化対象領域の推奨度マップをレンジファインダの操作者に示すことでデータの取得を支援する。最後に、全方位レンジデータと全方位画像を用いたテクスチャ付き三次元モデルの生成手法について述べ、実環境で取得したデータから生成した三次元モデルを示す。そして、本研究の結果を総括し、屋外環境の三次元モデル化の今後の展望について述べる。

0661009 上岡 拓未
構造化された学習及び進化を実現するためのエージェントの内部表現の提案


 ロボットなどの自律システムが未知環境に対応するためには、機械学習や進化的計算法といった何らかの最適化手法によって、環境に応じた制御器を獲得することが必要である。このような最適化手法を具体的問題へ適用する際には手法の選択だけでなく、目的関数、制御器の構造、メタパラメータなど様々な設計事項を決定する必要がある。多くの場合、このような設計は実験者の直感と試行錯誤によって行われる。本発表では特に (1)目的関数の設計を軽減する強化学習手法と (2)進化的計算による制御器の構造の自律的な獲得手法を提案する。
 目的関数の設定において、同時に複数の目的を考慮する必要があり、一意に目的関数を定めることが難しい場合がある。本研究では、特に強化学習を複数の目的からなる多目的最適化問題に適用することを考える。強化学習を多目的最適化問題へ適用する際には、目的ごとの報酬の足し合わせによるスカラー値の報酬を定義してきた。しかし、足し合わせによる手法では報酬が複数であるという問題の構造をうまく利用しておらず、報酬の大きさに敏感な強化学習システムになってしまうという問題があった。そこで、本研究では報酬の構造を維持しつつ、報酬値の組み合わせにロバストな強化学習法Max-Min Actor-Critic (MMAC) を提案する。 MMACは目的別に与えられた報酬関数ごとに価値関数を学習する同一構造のモジュールを持ち、各状態における最小の価値関数を最大化する方策であるMax-Min最適方策を得る。シミュレーション実験によって、Max-Min最適方策は複数報酬の和を最大化する手法に比べて各報酬値の組み合わせの影響を受けにくいことを示す。これにより、多目的最適化問題に強化学習を適用する際に、報酬関数の設計問題を容易にすることができると考えられる。
 制御器の構造を自律的に獲得する手法として、制御器をニューラルネットワークで表現し、進化的計算法によって最適化する NeuroEvolutionと呼ばれる方法が盛んに研究されている。これまでに提案されてきた多くのNeuroEvolution手法は 1つの遺伝子に対して1つの結合重みを割り当てていたため、結合単位の探索しか行うことができなかった。このため、大規模かつ複雑な構造を必要とする問題へ適用した場合に、進化の後期過程において探索効率が低下する問題があった。そこで、本研究では過去に発見した部分構造を1つのモジュール単位として利用可能にすることで、進化の後期過程では構造的な探索を可能にしたNeuroEvolution手法を提案する。提案した遺伝的表現ではニューロン間の結合に実数値の重みとネットワークの部分構造のどちらでも区別なく割り当てることが可能である。これにより、ネットワークをモジュールの組み合わせで表現でき、結合単位の探索とモジュール単位の探索が同列に扱える。シミュレーション実験により、提案手法がモジュール構造を利用した構造探索によって非マルコフ問題を解けることを示す。

0661030 郭 青
Optimal Polymer Production in Continuous Polymerization Reactor


 A continuous stirred tank reactor (CSTR) is widely used to produce various polymers in the chemical industry. The same reactor is often operated at multiple operating conditions to produce several different grades of the same polymer according to the demand of customers. In this situation, not only the steady-state operation but also the grade transition operation plays an important role in the effective polymer production. In this thesis, the optimal polymer production in the CSTR is discussed from both the optimal steady-state operation and the optimal grade transition operation.
 First, a mathematical model is developed for describing the dynamic behavior of a general free radical polymerization in the CSTR. The weight-based molecular weight distribution (MWD) function and three parameters, the number-average molecular weight (Mn), weight-average molecular weight (Mw), and the polydispersity index (PDI) are proposed as the specification of polymer quality.
 Second, the optimal steady-state operating condition to produce polymers with the best match to a specified MWD profile is discussed. Through a study of typical types of free radical polymerization, we find that an operating point can be determined by specifying two MWD parameters, Mn and PDI when the termination by combination reaction is included. However, the simultaneous specification of Mn and PDI cannot determine an operating point when the termination reaction by combination is not included. In this case, we need to specify another parameter to determine an operating point. We also show that an appropriate objective function must be selected to determine an optimal operating condition by taking account of the relationship between the specified polymer quality parameters and decision variables.
 Finally, we discuss an optimal grade transition to minimize the raw material and energy costs during the grade transition operation as well as to shorten the transition time. We show that a combination of feed-forward and regulatory control system provide a good solution. AS a result, we can achieve optimal production of different grades of polymers by applying the steady state optimization and the optimal grade transition policy.

0661209 油井 誠
Making XML Database Systems Scalable to Computer Resources and Data Volumes


 Increasing use of XML has emphasized the need for scalable database systems that are capable of handling a large amount of XML data efficiently.
 This study explores effective methods for making a scalable XML database system in the following aspects: (a) scalability to data volumes, (b) scalable XML processing with a shared-nothing PC cluster, and (c) scalable database processing on shared-memory multiprocessors.
 In the study of (a), we propose an XQuery processing scheme in which an XML document is internally represented as a set of blocks and can directly be stored on secondary storage. Our experimental results showed that our storage scheme is scalable to data volumes and outperforms competing schemes with respect to I/O intensive workloads.
 In (b), we discuss on-the-fly XML processing using shared-nothing PC clusters. We propose a scheme for distributed and parallel query processing that employs a pass-by-reference semantics by using remote proxy. Previously proposed methods that use pass-by-value semantics have often suffered from redundant communication between processor elements and limited inter-operator parallelism. To cope with these problems, we developed a distributed XML query processing scheme that leverages the benefit of lazy evaluation. Our experimental results showed that our proposed scheme obtains up to 22x speedups compared with competitive methods, and demonstrated the importance of distributed XML database systems to take pass-by-reference semantics into consideration.
 In (c), we explain the internal locking in the buffer management module that prevents databases from being scalable to the number of processors. We further propose a scalable buffer management scheme that employs non-blocking synchronization instead of locking-based ones. Our experimental results revealed that our scheme can obtain nearly linear scalability to processors up to 64 processors, although the existing locking-based schemes do not scale beyond 16 processors.
 Finally, we conclude our studies with examining our XML native database system built on top of the three contributions.

0561032 宮本大輔
A Machine Learning Approach for Detecting Fraudulent Websites


 This dissertation presents phishing by using machine learning techniques. Phishing is a fraudulent activity defined as the acquisition of personal information by tricking an individual into believing the attacker is a trustworthy entity. Phishing attackers lure people by using `phishing email'', as if it were sent by a legitimate corporation. The attackers also attract the email recipients into a ``phishing site'', which is the replica of an existing web page, to fool a user into submitting personal, financial, or password data.
 My motivation against phishing is supporting end users by informing that they are just visiting phishing sites. For doing so, I focus on improving the detection accuracy of the heuristics-based detection methods. Within the heuristics-based detection methods, several heuristics are used for calculating the likelihood of being a phishing site. The methods have a possibility to detect unreported phishing sites. The problems in the methods is that the detection accuracy is not so high. Accordingly, users would learn to distrust the system and would ignore the notification from detection systems.
 In the dissertation, I employ machine learning algorithms to improve the detection accuracy. At fist, I perform preliminary evaluation to emerge the issues on applying machine learning for combining heuristics. The result shows that AdaBoost, a typical one of machine learning, performs better than the traditional method. However, I observe that overfitting decreases the detection accuracy. In order to thwart the effectiveness of overfitting, I attempt to increase the number of URLs in my dataset by implementing a system which automatically collects and analyzes newly reported phishing sites.
 I then evaluate the performance for 9 machine learning algorithms, and the result shows that 8 out of 9 machine learning algorithms outperform the traditional method. Even if I modify the dataset which contains other phishing sites reported in different time period, or change the set of heuristics in detection, 7 out of 9 still perform better than the traditional method. Thus, I conclude that employing machine learning for detection of phishing sites is available.
 Based on the machine learning-based detection methods, I discuss how these methods adjust the detection strategies for each user. I also explain the techniques which aims to cover the weak point of human-being by using machine learning, named HumanBoost. The key idea of HumanBoost is to employ the user's trust decision as a new heuristic. My subject-within tests shows that the detection accuracy in the case of subjects with HumanBoost are higher in comparison among that in the cases of subjects without HumanBoost and the AdaBoost-based detection method. Finally, I propose HTTP Response Sanitizing which removes the input forms from the website. By comparing with the compulsory blocking, the loss of convenience would be lower in the case of my proposed method.
 In summary, this dissertation shows strategies of supporting end users to make trust decision, problems on detecting phishing sites, proposed machine learning-based detection methods for detection of phishing sites, and advanced technologies incorporate to machine learning-based detection methods. Finally, this dissertation has demonstrated that machine learning algorithms is feasible solution against phishing sites.

0361008 藤田(川井) 早苗
Studies on Constructing, Refining and Exploiting Rich Information Resources


 近年の自然言語処理研究は、大量のコーパスに、形態素解析や係り受け解析などの浅いレベルの処理を施して学習に利用するような統計的手法が中心となっており、辞書や意味情報を付与されたコーパス等のリッチな情報を付与された言語資源に基づく手法は減少している。しかし、深い意味処理を行なうための学習データとして、あるいは、頑健性向上のための知識源として、リッチな情報を付与された言語資源は重要である。本発表では、このような、自然言語処理において重要な言語資源に焦点をあて、その構築、精錬、利用方法について発表する。
 言語資源としては、NTTで以前から開発してきたオントロジー(日本語語彙大系)、用言の使い方と日英の対応関係を記述した2言語パターン対辞書、基本語辞書(Lexeed)、コーパス(檜)を紹介する。日本語語彙大系は、日本語の名詞約30万語を約3000の意味クラスに分類したものである。2言語パターン対辞書は、用言と名詞の組み合わせを記述し、更に、日英の対応関係を示したものである。 Lexeedは、心理実験によって、日本人の成人の95%は知っている語を基本語として選定し、機械可読な様々な情報を付与した辞書である。檜コーパスは、構文構造、意味構造、語義情報を一つのコーパスに統一的に付与したものである。
 これらの言語資源の構築は、主に人手でなされており、コストと時間がかかる。しかし、核となる部分を作成すれば、後は効率的に拡張することもできる。そこで、言語資源のうち、2言語パターン対辞書について効率的拡張方法を提案し、その有効性を翻訳タスクによって評価する。
 更に、意味情報などのリッチな情報と統計手法との融合を試み、こうした情報の有効性を調査する。本発表では、構文解析結果の正解選択への利用を提案、様々なレベルの意味情報を利用し、その有効性を示す。また、ここでは人手で付与した意味情報を利用するが、こうした意味情報自体を学習によって獲得する方法について、語義曖昧性解消方法として提案する。 こうした実験により、表層情報だけでなく、意味情報を用いた言語処理の有効性を示し、ひいては、こうした情報を持つ言語資源構築方法研究の重要性についても再確認する。

0661211 Yu Thomas Edison Chua
Studies on Power, Thermal & False-path Aware Test Techniques for Modern System-on-Chips


 Rapid advances in semiconductor manufacturing processes and design tools have led to a relentless increase in chip complexity. High power consumption and heat densities have become major concerns. These problems are greatly exacerbated for System-on-Chips (SoCs) which integrate several functional cores on one chip. SoCs operating at multiple clock domains and very low power requirements are being utilized in the latest mobile devices. Thus, the testing of SoCs under power and temperature constraints have been rapidly gaining importance. For this thesis, we first introduce a novel method for designing power-aware test wrappers for embedded cores with multiple clock domains. By effectively partitioning the various clock domains, making use of bandwidth conversion, multiple shift frequencies and clock-gating, we gain greater flexibility in determining an optimal test schedule under very tight power constraints.
 For Socs, imposing power constraints does not always solve the problem of overheating due to the non-uniform distribution of power across the chip. We present two TAM/Wrapper co-design methodologies for SoCs that ensure thermal safety while still optimizing the test schedule. The methods combine simplified thermal-cost models with bin-partitioning and packing algorithms to minimize test time while satisfying temperature constraints.
 Another problem is the difficulty in identifying untestable multi-cycle paths. Their rapid and accurate identification could result in significant reductions in Automatic Test Pattern Generation (ATPG) time, tester memory, test cost and chip over-kill. For this, a novel method of identifying multi-cycle false paths at Register Transfer Level (RTL) is presented along with a case study to prove its effectiveness.

0661020 服部 託夢
格子状多点誘導表面筋電図の時空間的情報を用いた運動単位同定手法に関する研究


 本論文では、格子状多点誘導表面筋電図を対象に、運動単位活動電位の空間的な伝導を可視化する解析ツールとしてのインターフェース開発と、新たに提案する3次元テンプレートによる活動電位の時空間的情報を用いた運動単位同定法について述べる。
 運動単位は筋収縮にかかわる運動神経と筋線維から成り、筋収縮を制御する最小機能単位である。筋収縮は運動神経から伝わった興奮により発生した電位が筋線維上を伝導することで起こる。この時発生した電位を運動単位活動電位とよぶ。筋張力は、活動電位の発火頻度と、動員する運動単位の数や種類を変化させることで調節される。活動電位が筋線維を伝導するときの筋線維伝導速度は運動単位の種類により異なる。発火頻度や伝導速度は、筋疾患や筋疲労の評価に用いられる。しかし、表面筋電図で得られる信号は皮下で空間的に複数の運動単位活動電位が加算されたものであるので、これらの指標を得るためにはまず個々の運動単位を同定する必要がある。
 近年、運動単位の同定には多チャンネルで計測された表面筋電図が用いられる。しかし、従来の解析方法では多チャンネルで得られる空間的な情報を十分に活用していない。本研究では、運動単位活動電位の時空間的な情報を基に運動単位を同定する手法を提案する。まず、電極を8×8の格子状に64個配置した格子状多点表面電極を作成した。さらに筋発揮張力と56チャンネル(8×7双極誘導)表面筋電図を同時に計測できるシステムを開発した。
 次に、得られた表面筋電図の解析ツールとして、topographyマップ(等電位図)を提示できるインターフェースを作成した。このインターフェースでは、電位が筋線維を伝導する様子をアニメーションで表示することができる。そのため、電位の発火や干渉の瞬間あるいは低振幅の活動電位が伝導する様子を容易に観察できるようになった。
 さらに、活動電位のもつ時間的な情報と空間的な情報を利用した3次元テンプレートによる運動単位同定法を提案した。この3次元テンプレートを用いることで、従来の同定法に比べてより高い特異度で運動単位を同定できるようになった。
 最後に、上腕二頭筋の等尺性随意収縮時の20%MVC(Maximal Voluntary Contraction)、と100%MVC、およびBallistic収縮時の3種類の表面筋電図を用いて、本手法の適用可能性を検証した。そして、それぞれの発火頻度、伝導速度が計測できることを示した。さらに、電極列と筋線維走行方向に角度を与えた表面筋電図にも適用し、電極の配列と角度を持つ筋電図に対しても運動単位の同定が可能であることを示した。
 本研究で開発したシステムにより得られる運動単位の関するいくつかの指標は、筋疲労や筋機能の定量的評価に有用であると期待できる。

0661015 爲井 智也
ユーザーの生体情報を用いた機械との動的インタラクションに関する研究


 近年、社会の少子・高齢化の進行に伴い、人間の生活空間で人と協調して複雑な作業を行うことのできる機械やロボットの需要が高まっている。そのためには、機械が力覚/触覚といった高度な知覚能力を持ち、人間と動的・直感的なインタラクションが可能であることが求められる。従来、人間と機械とのインタラクションは機械に取り付けられた各種センサーの情報に基づいた制御によるものが中心であった。しかし、この手法では配線やメンテナンス、ノイズ、耐久性などの問題から、空間解像度や計測自由度を高めることが難しく、豊かなインタラクションの実現には不十分である。そこで本研究では、機械とインタラクションするユーザーの生体情報をリアルタイムで機械に通信することにより、センサーを持たない機械に仮想的にユーザーの力覚や触覚を持たせる、新しい知能ロボットの設計アプローチを提案する。具体的には、機械側ではユーザーがロボットに対して発揮した力ベクトルや力点の推定を行った。本アプローチは制御対象に依存しないため幅広いロボット・機械に適用することができる。
 本アプローチの有用性を検証するために、センサーを持たない産業用機械マニピュレータ、表面筋電(EMG)計測装置、モーションキャプチャーシステムからなるシステムを構築して実験を行った。ユーザーの手首に関するEMG情報と姿勢情報をリアルタイムで機械側に通信することで機械に仮想的に力覚/触覚を持たせ、直感的かつ動的なインタラクションを実現した。更に、ユーザーと機械が協調し、重量物の持ち上げ・下げ作業を行うタスクも実現した。
 続いて、本アプローチをさらに汎用的にするための研究を進めた。タスクの前に力ベクトル推定きを予め学習しておく方法では、筋肉の協調パターン経時的変化により、推定精度が著しく悪化してしまう問題があった。この問題を解決するため、ユーザーの生体情報に応じて方策関数を改善する強化学習の導入を提案した。強化学習を用いることによって、(1)タスクを行いながらオンラインで推定器のパラメータの調整が可能である、(2)センサの出力等の明示的な教師信号がなくても学習(センサを持たないロボットへの適用)が可能である、という利点がある。一連の実験結果を示すと共に、本アプローチの利点や今後の応用についても議論する。

0661026 山本 眞也
大規模な仮想共有空間を介した多人数ユーザ間インタラクションの普及環境での実現法


 近年、多数の仮想的なオブジェクトを配置した仮想空間を様々な用途に活用するための研究が盛んに行われている。これらの研究は,多数のユーザで仮想空間を共有する共有仮想環境(Virtual Environment,VE) と,現実のユーザやオブジェクトの動きをモーションキャプチャなどの技術によってを取り込み、仮想空間に反映する仮想現実感(Virtual Reality,VR) の2 つに分けられる。
 一般に、VE は多人数のユーザを対象とするため、高性能なサーバとそれに見合う大きな通信帯域幅を必要とし、VR では,現実のユーザの動きを取り込んで仮想空間に合成するために、モーションキャプチャスーツや全方位ディスプレイ、カメラアレイなど、特殊な装置を使うことが多い。これらの技術を一般ユーザの様々な用途に応用するためには、低コストで実現することが重要である。また、VE,VR 技術を融合させ、多人数で共有する空間に現実世界のオブジェクトの情報を取り込めるシステムが望まれている。本論文では,VE,VR 技術を一般的な普及環境において実現するためのフレームワーク、および、その実現方法に関する次の2 つのトピックについて発表する。
 第一に、コストのかかるサーバを排したP2P 環境で一般的なネットワーク仮想環境(Networked Virtual Environment,NVE) を実現するために、多人数参加型オンラインロールプレイングゲーム(以下、MMORPG)を対象に、P2P オーバーレイネットワークアーキテクチャの提案を行う。提案手法の性能を確認するため、LAN 環境で動作するプロトタイプシステムによる実験と、ns-2 によるシミュレーション実験,PlanetLab でのWAN環境上でのプロトタイプシステムによる実験の結果,提案手法が現実のネットワークゲームを実現する上で,各ノードの計算負荷・通信負荷がゲームシステムのスケーラビリティやゲームプレイに影響しないこと、一般的なネットワークにおいて、ある部分領域のプレイヤ密度が高くなった場合でも、通信遅延を十分に使用可能な範囲に抑えることができることを確認した。
 第二に、実空間と仮想空間の間のインタラクションを実現するためのフレームワークと、ユーザ毎に、ユーザにとってより重要なオブジェクトがより高い頻度で更新されるようAR 情報(各オブジェクトの位置,向きなどの更新情報) の配送頻度を自動調整するQoS 適応機構についての提案を行う。提案するQoS 適応機構について評価するため、各オブジェクトのデータの更新の頻度の試算した。また、プロトタイプシステムを作成し、ユーザが視野を移動した際に視野内のオブジェクトの表示品質が適切に調整されるまでの時間を様々なオブジェクト数に対して計測した。その結果、通常のインターネット環境および無線 LAN 環境において提案機構が実用上十分な性能で動作することを確認した。また、仮想ユーザに対しては、実用上十分なデータの更新頻度と短い遅延を達成することを確認した。

0661033 高橋弘喜
Integrative analysis of transcriptomics and metabolomics in Escherichia coli


 In the era of post-genomics, a systematic and comprehensive understanding of the complex events of the organisms is a great concern in biology. Fourier transform ion cyclotron resonance mass spectrometry (FT-ICR/MS) is the best MS technology for obtaining exact mass measurements owing to its great resolution and accuracy, and several outstanding FT-ICR/MS-based metabolomics approaches have been reported. In the present study, I proposed a procedure for metabolite annotation on direct-infusion FT-ICR/MS by taking into consideration the classification of metabolite-derived ions using correlation analyses. Integrated analysis based on information of isotope relations, fragmentation patterns by MS/MS analysis, co-occurring metabolites, and database searches (KNApSAcK and KEGG) can make it possible to annotate ions as metabolites and estimate cellular conditions based on metabolite composition. A total of 220 detected ions were classified into 174 metabolite derivative groups and 72 ions were assigned to candidate metabolites in the present work. Metabolic profiling has been able to distinguish between the growth stages with the aid of PCA. The constructed model using PLS regression for OD600 values as a function of metabolic profiles is very useful for identifying to what degree the ions contribute to the growth stages. Ten phospholipids which largely influence the constructed model are highly abundant in the cells. This approach can reveal that global modification of those phospholipids occurs as E. coli enters the stationary phase. Thus, the integrated approach involving correlation analyses, metabolic profiling, and database searching is efficient for high-throughput metabolomics. Furthermore, I performed the transition point analysis by applying the statistical method, Linear Dynamical System (LDS) to transcriptomics and metabolomics data, respectively and detected a time lag between transcriptional and metabolite levels. Finally, the integrative analysis of transcriptomics and metabolomics was performed based on gene-to-metabolite correlation analysis by taking into consideration a time lag.

0761203 島 慶一
A Proposal of a Practical Design of IP Mobility Implementation and Proof of its Validity through the live Internet as a Basement of the Future IP Mobility Activity


 Internet is growing by combining various communication media. In the future, it is considered the wireless connection, rapidly advancing recently, will be an important component as Internet connectivity. The research goal is to provide a practical implementation design of protocols that can support a huge number of mobile nodes and the mobile-centric operation style for the future. IPv6 and Mobile IPv6, the mobility protocol for IPv6, are the only realistic option to support that huge number of nodes. In this dissertation, the implementation design of the protocols is proposed, and verified by the actual implementation and operation. The validity and practicability of the stack has also been verified through several additional experiments of the IPv4 to IPv6 transition method, and the easy multihoming method both utilizing mobility features. Furthermore, deployment work to raise the availability of the infrastructure by publishing the stacks and starting service operation has also been done. Finally, by proposing and verifying a global mobility operation mechanism, this dissertation completes the proposal of a practical protocol implementation design for the future mobile-centric Internet infrastructure.

0661004 奥 健太
ユーザコンテキストを考慮した情報推薦方式に関する研究


 ユーザの嗜好およびユーザの状況 (ユーザコンテキストとよぶ) に合った情報を提供する、コンテキスト依存型情報推薦方式を提案する。コンテキスト依存型情報推薦方式を実現するための技術的課題として以下の課題が挙げられる。
  (a) 膨大なアイテムの中からユーザの嗜好およびユーザコンテキストに合致したアイテムを選定する技術の確立。
  (b) 膨大な推薦候補アイテムに対し、ユーザの嗜好およびコンテキストに基づいた適切なランキングを提供する技術の確立。
  (c) 推薦時のコンテキストだけでなく、過去/未来のコンテキストを考慮したアイテムを選定する技術の確立。
 本研究では、ユーザコンテキストに依存したユーザのアイテムに対する嗜好および価値判断基準を表現したモデルを提案することにより、上記の課題 (1)〜(3) に取り組んだ。以下、本研究における各課題に対するアプローチについて述べる。
 従来の情報推薦技術では、ユーザのアイテムに対する好みに関するデータを蓄積し、このデータに基づいてユーザ嗜好モデルを作成する。しかし、ユーザの嗜好はユーザコンテキストに応じて多様に変化するため、アイテムに対する好みに関するデータを入力とするだけでは適切なユーザ嗜好を表現することはできない。そこで、課題 (1) に対しては、ユーザコンテキストに依存したユーザ嗜好を表現した、コンテキスト依存型ユーザ嗜好モデルを提案した。提案モデルを利用することにより、ユーザの嗜好およびユーザコンテキストに合致したアイテムを推薦候補として選定することを可能とした。
 情報推薦技術の目的の一つとして、情報探索行為におけるユーザ負担の軽減がある。ユーザの情報探索行為における負担を軽減するために、ユーザへ提示する推薦アイテム数を少なくすることが重要である。そこで、課題 (2) に対しては、課題 (1) において選定された推薦候補アイテム集合に対するランキングを作成し、その上位n個のアイテムをユーザに提示する方法を取る。特に、ユーザが、おかれているコンテキストにおいて、アイテムのどの属性を基準に価値判断を行っているのかを表現するユーザのコンテキスト依存型価値判断基準モデルを提案した。提案モデルを利用することにより、推薦候補アイテム集合に対し、ユーザコンテキストに依存したユーザの価値判断基準に沿ったランキングをユーザに提供することを可能とした。
 ユーザの嗜好は、ユーザがおかれているその時点での状況だけでなく、ユーザが過去に取った行動や将来予定している行動にも影響を受けると考えられる。故に、過去/未来のユーザの時系列的な行動履歴もユーザコンテキストの一部であると考えられる。したがって、コンテキスト依存型情報推薦において、過去/未来のユーザの時系列的な行動履歴を考慮に入れることは重要な課題である。課題 (3) に対しては、ユーザの行動履歴データから、推薦時のコンテキストに応じたユーザの行動パターンを表現した、コンテキスト依存型行動モデルを提案した、提案モデルを利用することにより、推薦時コンテキストに加え、過去/未来の時系列的なユーザの行動履歴も考慮した情報推薦を可能とした。
 本発表では、上記各課題に対するアプローチについて述べ、各提案方式について説明する。さらに、健勝実験の結果から、提案方式の有効性を示す。

0661022 益井 賢次
Enhancing End-System Capabilities on the Internet with a Large-Scale Observational Approach
(エンドシステムの自律動作を支援するインターネットの大規模観測に関する研究)


 本発表では、インターネットにおける新たなネットワーク計測のモデルであるアプリケーション指向のネットワーク計測について、その意義と実現に向けた取組みを示す。アプリケーション指向のネットワーク計測は、大規模peer-to-peerネットワークアプリケーションのように、インターネットのエンドシステム上で動作するアプリケーションがより多くのノードとネットワークにまたがり自律的に動作するようになる過程で必要とされるようになった。その目的は、インターネットの構成要素(ノードやリンクなど)の状態や性能・構造を示すネットワーク特性情報を、アプリケーションに対して迅速にかつ正確に収集し提供することである。アプリケーションは提供された情報をもとに、自身のサービスの維持・拡大を目的として将来の動作を決定することになる。すなわち、アプリケーション指向のネットワーク計測は、エンドシステムの自律動作の判断材料を提供する重要な手続きである。
 本研究は、このようなアプリケーション指向のネットワーク計測をインターネット上でサービスとして展開するアプローチにより、ネットワークアプリケーションがより柔軟に動作できる環境を作り出すことを目的とし、実地的な知見を探求する。そのための取組みとして、本発表では以下の内容を扱う。まず、実在するあるいは研究段階のネットワークアプリケーションの自律動作の手順をふまえ、アプリケーション指向のネットワーク計測基盤(application-oriented measurement platform, 以下 AOMP)の機能要件をまとめる。その上で、階層型peer-to-peerネットワークを計測ネットワークとして用いるAOMPの実装について、実ネットワーク環境での応答性・規模拡張性などを考慮した動作検証結果をもとに、その実現可能性と実展開シナリオを検討する。また、IPトポロジの大規模探索に適した手法のひとつであるDoubletreeを実際にAOMP上に搭載する過程から、実装したAOMPが柔軟に大規模観測手法を搭載できることを確認する。さらに構築したIPトポロジ探索システムについて、処理の冗長性の低さや観測ノードの故障への耐障害性の高さなどを示し、このような大規模観測手法がアプリケーション指向のネットワーク計測の有効な手段たりうることを主張する。最後に、実際のサービスとしてAOMPが展開していくための、ひいてはインターネットがエンドシステムにとってより自由で柔軟なプラットフォームとなるための指針と今後の課題についてまとめる。

0761209 増田 健
Shape Model Construction from Multi-View Range Images


 This thesis presents several new techniques related to geometric shape model construction from range images measured from multiple viewpoints. Most basic techniques required to solve this problem are registration and integration of multiple range images. We first present a method of robust registration of a pair of range images. For registering a pair of range images, the Iterative Closest Point (ICP) algorithm is widely used, but it is fragile to outliers due to occlusion and sensing errors. We integrated the least median of squares (LMedS) estimator with the ICP algorithm for making pairwise registration robust to outliers. This method is then extended for pairwise registration of a sequence of multiple range images.
 The procedures related to shape model generation from range images are summarized usually by a pipeline, and the input range images are first registered, then integrated as a geometric shape model. We propose to rearrange this pipeline. Registration of range images should be segmented into coarse and fine registration stages depending on existence of the initial registration.
 The coarse registration needed to be achieved without any knowledge of the initial registration. This problem is closely related to object recognition, and matching local invariant features is the most widely used approach. We propose a method for coarse registration of multiple range images by using the log-polar depth map for generating local invariant features used for correspondence establishment. In this method, point correspondence is certified by RANSAC algorithm, and registration tree is automatically generated by maximizing the number of inlier correspondences.
 The result of the coarse registration is used as the initial state for the fine registration. It is usually solved by minimization of the registration error starting from the initial state. We propose to solve fine registration and shape integration simultaneously. The input range images are first integrated, and each range image is registered to the integrated shape. Integration and registration are alternately iterated until the input shapes are well registered to the integrated shape. We use the signed distance field (SDF) for shape representation, and this representation is efficient for implementing this minimization process.
 In many cases of shape measurement of real objects, due to occlusion and object material properties, unmeasured regions remain as holes. We propose a method for filling holes of the integrated shape by iteratively fitting quadratic functions to the SDF. We also present that the differential geometry properties of the object surface can be extracted from the SDF. We present experimental results of the proposed methods applied on synthetic and real range images.

0561026 藤原祐介
The variational Bayesian approach to non-invasive brain imaging: MEG and fMRI


 本学位論文では変分ベイズ法を用いたMEGおよびfMRIデータの解析法を提案する。非侵襲脳活動イメージングはヒトの脳機能および神経表現を調べるために欠くことのできない技術である。とくに脳磁図(MEG)と機能的核磁気共鳴画像(fMRI)は、よく利用されるイメージング法であり、脳について豊富なデータを提供している。
 はじめにMEGから眼球アーチファクトを除去する変分ベイズ法を説明する。MEGは眼球運動由来の余分な磁場(眼球アーチファクト)に敏感であり、それが眼球運動の生じないタスクにMEGの適用範囲を限定していた。提案方法は眼球アーチファクトの源として左右の眼球にそれぞれ単一ダイポールを仮定し、眼電流と脳電流を同時にすることでアーチファクト除去を行う。
 次に視覚刺激を提示したときのfMRIデータから画像の基底を抽出する変分ベイズ正準相関解析法を提案する。この方法はfMRIデータとそれに対応する刺激画像を、隠れ空間のモジュール表現を通してつなぎ合わせる。この隠れモジュール表現を用いることによって、fMRIデータのみから初めて見た画像を再構成できるようになる。
 最後に、この二つの手法の関連について述べる。これら二つの提案手法は非侵襲脳活動イメージングによる神経機序の解明にあらたな道を切り開くと考えられる。
  情報科学研究科 専攻長