Abstracts of Doctor Thesis 2003

平成15年度 情報科学研究科 博士学位論文内容梗概



0161028 中村 泰 「パターン生成器を用いた制御に対する強化学習法論文」

内容梗概 実空間で行動するロボットに対する制御を行う場合, 環境に対する知識が前もって得られ なかったり地面などの環境が動的に変化するため, あらかじめ与えられた制御を行うのでは なく自律的に環境に適応し, 制御則を獲得する枠組みが必要となる. 強化学習法はこの要求 を満たす手法で, 環境や制御対象のシステムなどの先見的な知識が無い場合にも適用できる. しかしながら, 歩行などの複雑な運動に対する制御則の学習は, システムの自由度が大きく 非線形性が非常に強いことや, 制御則自体が非線形で複雑となることから困難なものとなる. 一方, 歩行などの生物の運動は, 周期的な信号を生成する中枢パターン生成器(CPG)とよば れる神経回路によって制御されていることが示唆されている. このような生物の制御機構を 参考にして, 周期的な運動に対するCPG を用いた制御法の研究が行われてきた. これらの手法 では, 制御器となるCPG を再帰結合型ニューラルネットワークで実装し, 制御対象のシステム からのフィードバック結合やニューロン間の相互結合の重みを変化させることによって制御 信号を調整する. 本論文では, CPG を用いた制御に対する自律的な学習の枠組みとして,CPG-actorcritic モデルと呼ばれる新しい強化学習法を提案する.提案手法は, 複雑な制御則を学習する代りに CPG の結合重みの学習を行う手法であり, 線形制御器に対する学習を行うことで非線形な 制御則を獲得できる. まず, 価値関数に基づいて学習を行うCPG-actor-critic モデルの学習法を導出する. 提案手法 を2 足歩行ロボットの自律的な歩行運動の獲得課題に対する計算機シミュレーションに適用し, 提案手法により安定した2 足歩行を実現するCPG コントローラを獲得できることを示す. また, 学習によって得られたCPG コントローラの性質について報告する. 次に, 方策勾配法に基づいて学習を行うCPG-actor-critic モデルの学習法を導出する. 近年, 学習の収束が保証された方策勾配法を用いたactor-critic モデルが提案された. 価値関数に基づ く手法ではシステムの複雑さによる学習の困難さは克服できていないが, 方策勾配法を用いた 手法ではこの困難が克服できる. 提案手法を2 足歩行ロボットの自律的な歩行運動の獲得課題 に対する計算機シミュレーションに適用し, 提案手法により安定した2 足歩行を実現するCPG コントローラを獲得できることを示し, またパラメータの改善に対して良い性質を持つことを示す.

0161032 前田 新一 「初期聴覚系における情報表現の情報理論的観点からの研究」

内容梗概 本論文では、脳の初期知覚系、特に初期聴覚系における情報表現について議論する。聴 覚で処理される音声情報は、情報理論における情報量の観点からは非常に冗長な情報と なっている。冗長性と予測可能性は密接な関係を持っているが、脳は情報の予測可能性 を積極的に利用していることが認知心理学的な研究からわかっている。その典型的な例 は錯覚現象に現われており、いくつかの錯覚現象は、情報の傾向を予測した推定を行っ ていると考えることで説明することができる。 ここではまず、エントロピー最大化に基づく聴覚モデルによって音高知覚でみられる 錯覚現象を説明するとともに、いくつかの生理学的知見を説明する。このモデルにおけ るエントロピー最大化は、正確には結合エントロピーの最大化を意味するが、結合エン トロピー最大化を周辺エントロピーの最大化と独立化とに2 段階にわたる手続きに分離 して結合エントロピーの最大化を行っている。このモデルは、結合エントロピーを最大 化させることを保証することはできないが、解剖学的な構造との対応がとりやすいモデ ルとなっている。 次に、この2 段階の手続きに分離していたエントロピー最大化に基づくモデルをノイ ズ付き非線形独立成分分析として定式化することで理論的に一貫したモデルとした。導 出したノイズ付き非線形独立成分分析は、線形なノイズ付き独立成分分析を一般化する モデルとなった。このモデルを音声、音楽データを学習させてより詳細な音高知覚シミュ レーションを行った。 最後に、エントロピー最大化や独立化がなぜ効率的な情報表現と関係するかをレート 歪み理論に基づく圧縮符号の観点から議論する。最適なブロック符号化による圧縮符号は、 ベクトル量子化によって表現することができ、そのベクトル量子化を最適化する方法も 考案されている。しかし、ベクトル量子化は復号や最適化がベクトルの次元に対して 指数的に計算量が増えてしまう問題を持っている。この問題をProduct Code による構造化 によって解決するとともに、その最適化法を提案する。また、Product Code による最適な 圧縮符号の生成とエントロピー最大化問題がどのように関係するかについて述べる。

0161037 Akhmad Unggul Priantoro 「Studies on Multipath Interference Canceller for Orthogonal Code-Multiplexed Channels in W-CDMA Forward Link」

概要 In wide band code division multiple access (W-CDMA) system, all users communicate simultaneously on the same frequency band thus creating mutual interference. Consequently, the system capacity is determined by the total interference power in the system. This problem is especially significant in the forward link due to introduction of high data-rate services in the near future. In addition, common channels which are transmitted at high power and without fast transmission power control are potential sources of MPI. Although the use of orthogonal variable spreading factor (OVSF) codes establishes orthogonality among channels within same propagation path, multipath interference (MPI) are large thus severely limits the system capacity. Therefore, suppression of MPI is important in increasing the system capacity. Multipath interference canceller (MPIC) is interesting from practical implementation point of view because it is highly configurable to meet various constraints, such as hardware complexity. In this thesis, configuration and algorithm for improving the performance of MPIC are proposed. Next, the MPIC is extended to be combined with closed loop phase control (PC) transmit diversity to realize robust communication system in interference-limited and noise-limited conditions. However, the performance of the MPIC receiver is affected by the accuracy of antenna verification due to MPI and background noise. Therefore, a new antenna verification method is proposed which reduces the antenna verification error hence improves the MPIC performance. Computer simulation results confirm the effectiveness of the proposed MPIC receiver. Application of MPIC employing the proposed antenna verification to common channels only, reduces the required average transmit Eb/N0 at average bit error rate (BER) of 10-3 by about 3.3 dB. Furthermore, it is clarified that one-stage MPIC and two-stage MPIC are sufficient for serial construction and parallel construction, respectively. This result is very encouraging, from computational complexity perspective, for applying MPIC at mobile station.

0061004 伊田 政樹 「音声対話インタフェースのための雑音に頑健な音声入力の研究」

概要: 次世代のマンマシンインタフェースはどうあるべきか.簡単で誰もが使えること.高精度 で誤りが少ないこと.高速に情報の入出力が行えること.人にとっても機械にとっても負 荷が小さいこと.などが挙げられる.多様なマンマシンインタフェースの中で,本研究で は音声対話インタフェースに注目する. 近年,音声認識の研究を行う上での環境が大きく進歩し,さまざまなアプリケーションで 音声認識技術が一般ユーザに利用されるようになった.しかしながら,音声認識は技術と していまだ道半ばであると言わざるを得ない.未完成と考える最大の要因は,音声認識技 術の利用形態にかかる制約が大きい点にある. 実環境下における音声認識システムの実用化について考えると,ハンズフリー音声入力イ ンタフェースの実現と,それに伴う雑音混入に対してロバストな音声認識性能の実現が大 きな鍵を握っている.本研究では,ハンズフリー音声入力インタフェースの実現のためマ イクロホンアレーによる指向性マイクロホンとスペクトル減算による雑音除去を併用す る.さらに音響モデルの雑音環境適応化により雑音混入による音声認識性能の低下を防 ぐ.ここで,以下の三点に注目する.第一に,音響モデルを雑音環境適応化する際に必要 な適応データ量の削減.第二に,時々刻々変動する雑音環境に対してロバストな音響モデ ルの構築.第三に,実際の音声対話アプリケーションにおいて利用可能な音声入力インタ フェースの構築.以上の三点である. 第一の課題および第二の課題に対し雑音GMM適応化とSN比別マルチパスモデルを用いたHMM 合成法を提案する.HMM合成法は環境雑音のモデル化を行う際に適応データとして雑音 データのみを用いる方法である.したがって適応化にユーザ負担を生じない長所がある. HMM合成法の欠点は多量の適応データ量を必要とする点と雑音の変動に対して対応できな い問題がある.提案法では,さまざまな雑音データを用いて準備した初期雑音GMMの適応 化することで適応データ量を削減できる.また,複数のSN比に対応した適応化HMMを作成 し1つのモデルの中に並列に構築する.評価実験の結果,従来法に比べて適応データ量を 10分の1に削減することができた. 第三の課題に対し,情報提供端末向けにハンズフリー音声入力インタフェースを開発し た.音声対話が有効なアプリケーションとして券売機や情報提供端末を取り上げ,遅延和 形マイクロホンアレ─処理とスペクトル減算による雑音除去を組み合わせた音声入力イン タフェースを試作した.実環境下における認識性能評価実験の結果,216単語の孤立単語 認識で91.6%の認識性能を達成し,十分な認識性能が得られることが確認できた. 以上のように,本研究では実環境下での音声認識システムの利用における課題について検 討し,成果を得た.

0161030 西村 竜一 「大語彙連続音声認識を基盤技術とする実用指向音声インタフェースに関する研究」

人の最も自然な意志伝達手段である音声を人と機械のコミュニケーションにも導入したい という要求は大きい.例えば,知能ロボットやパーソナルエージェント,電話応対システ ム,情報化家電のユーザインタフェースなどが挙げられる.一方,音声認識技術の発展と 共に,人と機械の音声コミュニケーションを可能にする音声インタフェースの実用化に関 する試みはすでに多く,今や実用に足るレベルを得ている.しかし,我々の日常社会に普 及した例はまだ少なく,実環境下における音声インタフェースの利用実態の調査は十分で はない.本研究の目的は,実際に音声インタフェースをサービスし,そのフィールドテス トの中で音声インタフェースの普及の障害となっている問題点を検討することである.ま た,開発や運用の過程で必要に応じた要素技術に対する改良を行い,インタフェースとし ての利便性向上を目指す. まず,音声インタフェースの基盤となる大語彙連続音声認識において認識対象タスクを決 定する言語モデルに着目する.音声インタフェース開発の前準備として認識対象に適した 単語N-gramモデルが必要となる.本論文の最初では,その構築を低コストに行うことがで きる言語モデルの作成手順を検討する.その手順は,テキストコーパスの自動作成とト ピック依存N-gramモデルの構築,モデル融合によるタスク操作,そして,ネットワーク記 述文法の適用によるモデルの高精度化から構成される. 次に,人との対話機能を持つ受付案内ロボットASKAの構成を述べる.ASKAは,大学の受付 案内をタスクとしており,合成音声と手と頭のジェスチャを使ってユーザと対話すること ができる.また,その開発や運用を通じて得た開発プロジェクトに関するこれまでの活動 成果をまとめる. そして,音声インタフェースの利用実態調査を目的に開発した音声情報案内システム「た けまるくん」について述べる.本システムは,一問一答形式の音声インタフェースを持 ち,誰でも気軽に利用できる生駒市や生駒市コミュニティセンターに関する受付案内サー ビスを提供する.本研究では,システムを同センターに常設し,五ヶ月間にわたってユー ザの発話を収集した.時間にして1,362分にもなる男女幅広い年齢層の利用者による発話 の分析から,大人と子供で発話内容の傾向に違いはあるが,本システムは有効に利用され ていることがわかった.収集発話を用いたシステムの性能指標の評価では,大人に対して 86%の単語認識率と76%の応答正解率を得ることができるのを確認した.ただし,システム が抱える問題点の一つとして,子供話者に対する性能不足が明らかになった. 音声インタフェースが家庭や公共施設へ今後普及することを考えると子供の存在は無視で きない.そこで,本論文の最後では,ユーザ年齢層に即した柔軟な対話を可能にする音声 インタフェースを検討して,問題になった子供に対する音声インタフェースの利便性向上 を目指す.その実装に必要になる話者の大人・子供識別手段として,音声認識結果の対数 尤度から求める音響的特徴と言語的特徴を併用した統計学習に基づく話者識別手法を提案 する.二値分類アルゴリズムであるSVM(Support Vector Machine)を識別に用いた実験 では91.8%の識別率を得た.これは音響的特徴のみを含むGMM(Gaussian Mixture Model) の尤度比較を使った識別結果から5.4%の識別率改善である.また,子供収集発話を音声認 識の言語モデルと音響モデルの学習に含めることで,子供発話に対する18.5%の認識率向 上を得ることができた.

0061202 河村 竜幸 「Design and Implementation of Augmented Memory」

This thesis proposes the design concept of a practical computational augmentation of human memory (augmented memory) for everyday life. This thesis also describes the techniques for implementing the concept as well as their experimental results with good performance. Varieties of practical memory-aid systems are proposed to help a user for both memorizing his/her experiences and recalling a desired them at anytime and anywhere. People undoubtedly wait for systems to computationally augment human memory to be distributed. Actually, a person's memory activities are used not only for recollecting events he/she has experienced but also for solving his/her current concerns, and planning future plans throughout his/her everyday life. However, errors in his/her memory activities, e.g., slip, lapse and mistake, easily occur. Such errors make him/her give up his/her scheduled task. The ultimate goal of the augmented memory is to enable the user to reduce such errors by integrating seamlessly his/her natural human memory with the computational augmented memory in his/her everyday life. This thesis first describes how the augmented memory should be designed. Although the augmented memory has been extensively studied in recent years, most of studies have not presented what the definition of the augmented memory is. This thesis also describes how augmented memory modules should be implemented. By redefining the conventional concept of Rhodes's augmented memory to my new concept, this thesis discriminates ideal specifications of the augmented memory into ``Encoding,'' ``Storage,'' and ``Retrieval'' processes. In order to develop the augmented memory, this thesis proposes a framework, which is termed SARA, for accomplishing the augmented memory. The following two categories are defined to design the framework. One is an operational category: Memory Retrieval, Memory Transportation, Memory Exchange, and Memory Editing. Another is the associable category: Spatial, Physical (Physical Human and Physical Object), Temporal, Behavioral, and Psychal elements. This thesis implements three types of augmented memory modules on the above design concept of the augmented memory. All modules employ a wearable camera, which can capture a scene from a user's viewpoint, and a wearable computer. (1) The Residual Memory activates a user to recall a ``location-triggered'' past event. Suppose that the user tries to recall past event he/she had experienced at the place where he/she has ever been there when he/she goes there. In this module, the main topic of this work is a design and an implementation of video retrieval techniques in the real world. This module represents a practical example of the operational category of the ``Memory Retrieval'' element. This module also shows a practical example of the associable category of the ``Spatial'' element. In order to design this module, I utilize ``Continuity'' and ``Spatiality'' characteristics, which are the transitions caused by person's spatial and temporal movements, in designing this module. This module employs three types of techniques: (i) a stable image matching method excluding user's head motion and moving objects in a scene captured from a wearable camera using two mono-axis gyro sensors, (ii) a video scene segmentation method to detect a video scene comprehensible for the user using a moving average method with two mono-axis gyro sensors, and (iii) the real-time video retrieval method using two different types of feature spaces composed of a time-sequential space and a color image-feature space. (2) The Nice2CU activates a user to recall a ``human-triggered'' past event and information, e.g., name, affiliation, birthday, etc. In this module, the main topic of this work is a design and an implementation of an augmented memory management method using persons' profile data and meeting logs. This module represents a practical example of the operational category of the ``Memory Retrieval'' and ``Memory Editing.'' This module also shows a practical example of the associable category of the ``Physical Human'' element. This module employs a Radio Frequency Identification (RFID) device for registering a target person. This module proposes a ``Card and Mirror'' interface for a easy registration and an automatic update of the target person's profile. The card interface employs a business card attached to an RFID tag. The mirror interface is composed of a magic mirror and a camera set behind the mirror. This module manages a person's information as ``Profiles,'' ``Experiences,'' ``Messages,'' and ``Human Relations.'' This module employs three types of techniques: (i) the easy registration method of the target person using the business card attached to the RFID tag to reduce the workload for registering the target person, (ii) the automatic update method of the target person's information using the mirror interface to minimize the cost for updating persons' information, and (iii) a rating method of human relations using persons' profile and meeting logs to recommend ``Experiences'' and ``Messages'' videos to the user. (3) The Ubiquitous Memories activates a user to recall an ``object-triggered'' past event. Suppose that the user tries to recall past event he/she had experienced from the plaque he/she got when he/she won first prize in the 100-meter dash at an athletic festival. In this module, the main topic of this work is a design and implementation of a module containing cognitive operations. This module represents an example of the operational category of ``Memory Retrieval,'' ``Memory Exchange,'' and ``Memory Editing.'' This module also shows an example of the associable category of the ``Physical Object'' element. This module employs the RFID device for associating a video captured by a wearable camera with a real world object. Each real world object is attached to an RFID tag. The module is designed by using human cognitive trait of the ``Encoding Specificity Principle.''

0161019 島田 秀輝 「移動計算機環境におけるPeet-to-Peerシステムの制御機構に関する研究」


(概要)  無線ネットワークデバイス,携帯可能な計算機(移動計算機)の進化と共に, 移動計算機を取り巻く環境は年々変化し,ますます身近になり,いつでもどこ でもネットワークに接続することが可能になってきている.携帯電話はもとよ り,街中の無線LANサービスを利用することにより,IEEE802.11bに代表される 無線LAN機器を用いて,より高速に通信することが可能である.  このようなネットワークの高速化,計算機の高性能化に伴い,サーバにおけ る集中管理型ではなく,各端末が情報を分散管理し,発信を行うPeer-to-Peer システムが利用可能である.無線ネットワークデバイスを用いた移動計算機の Peer-to-Peerシステムとして,近年,Ad-hocネットワークが注目されている. Ad-hocネットワークの研究では,ルーティングに関する研究は多く提案されて いるが,それを利用したアプリケーション例は少ない.  本論文では移動計算機を対象としたPeer-to-Peerシステムの構築を目指して いる.このPeer-to-Peerシステムにおいて,移動に伴い変化する移動計算機の 地理的位置情報,インターネットとの接続に不可欠な無線LANの基地局に着目 する.これらの管理・利用に関する問題点を示し,ワイヤレスPeer-to-Peerシ ステムにおける移動計算機の利用方法について検討する.具体的には,次の三 項目の実現を目指す. ・移動計算機からの位置依存情報発信システム ・複数のアドホックネットワークグループ間における通信制御機構 ・マルチホップ無線ネットワークを利用したインターネット接続システム  地理的位置情報や無線LANの基地局といった,固定計算機のネットワーク環 境には存在しない移動計算機の無線環境に固有の特性を制御することを本論文 では示す.上記三項目をまとめることにより,移動計算機を対象としたPeer- to-Peerシステムの適用範囲を広げることができると考えている.本論文で は,無線ネットワークを利用するPeer-to-Peerシステムの提案,実装,評価を 述べる.

0 161014 國信 茂太 「静的解析を用いたアクセス制御システムのセキュリティ保証技術に関する研究」

内容梗概: 近年, コンピュータネットワークの普及により, 不正な攻撃者に対する計算機 システムのセキュリティ保全が重要な課題となっている. セキュリティ保全の 基本的な技術として, 暗号とともにアクセス制御法が古くから研究されている. アクセス制御法は, 必須アクセス制御(Mandatory Access Control, MAC)と 任意アクセス制御(Discretionary Access Control, DAC)に大別される. MACでは, セキュリティレベル(top-secret, secret, unclassified等)が 各ユーザおよび各データにセキュリティポリシーとして割り振られており, アクセス制御はユーザのセキュリティレベルとそのユーザがアクセス しようとするデータのセキュリティレベルを比較することにより実行される. DACでは, 各データの所有者がそのデータに対し, 自由にセキュリティポリシー (アクセス条件)を設定することができ, アクセス制御はアクセスされるデータの セキュリティポリシーに基づいて実行される. しかしながら, DAC/MACのどちらのアクセス制御法においても, 与えられたセキュリティポリシーによりシステム全体の本来満たすべき目的が 達成されているかを人手で確認することは難しい. 本研究では, MACおよびDACの両モデルについて, 設定されたアクセス制御 ポリシーによって, システム全体に対するセキュリティ要求が達成されて いるかを, ソフトウェアの静的解析を用いて判定する方法を提案する. MACに対するセキュリティ保全手法として, 手続き型プログラムに対する 情報フロー解析アルゴリズムを提案する. 提案アルゴリズムは, 解析対象 プログラムとそのプログラムへの入力データのセキュリティレベルが 与えられたとき, 出力データの セキュリティレベルを推論する. プログラムの情報フロー解析は一種の データフロー解析といえる. 提案手法では, セキュリティレベルの構造は任意の有限束で表現することができる. 解析手法として, 抽象解釈(abstract interpretation)法を用いることにより, 任意の再帰プログラムに対する解析を可能としている. 解析法の健全性の証明を おこない, 提案アルゴリズムの時間計算量がプログラムサイズの3乗オーダで 実行できることを示した. さらに, 暗号化関数等, 入力情報を隠蔽する機能を 組込み演算としてもつプログラムの解析を目的として提案アルゴリズムを拡張 する方法についても述べる. 試作システムを用いて, 例プログラムを解析した 結果についても議論をおこなう. DACに基づいたシステムのセキュリティ保全手法として, まず, 簡潔なポリシー 記述言語とポリシー制御系(Policy Controlled System, PCS)を提案する. 従来のDACモデルでは, ポリシーとしてアクセス許可およびアクセス禁止の 2種類を記述することができるが, 提案するポリシー記述言語では, 義務ポリシーも記述することができる. 義務ポリシーとは, あるイベントが 発生したときに義務的に実行されなければならない動作を記述するポリシーである. ポリシー制御系(Policy Controlled System, PCS)とは, 個々のオブジェクトが それぞれにセキュリティポリシーをもち, オブジェクトのふるまいを ポリシーにより制御するようなシステムである. 本研究では, PCSの 操作的意味を定義している. また, 「PCS Pと検証条件Fが与えられたとき, Pの到達可能な状態は全て Fを満たすか」という問題を安全性検証問題として定義する. この問題は コントロールフロー解析問題と考えることができる. この問題の解析手法 として, プッシュダウンシステムに対するモデル検査法を用いている. 最後に, 試作システムを用いて例PCSの検証を行った結果を紹介する.

0161040 胡 建 「Software Usability Evaluation Based on Quantitative Data of Brain Wave, Gaze Point, and First Impression」

This thesis proposes three methods for software usability evaluation respectively based on quantitative data of brain wave, gaze point, and first impression. The purpose is to improve evaluation efficiency and effectiveness of software usability by solving problems in existing three types of evaluation methods: operation evaluation, performance evaluation, and subjective operation. These three types of methods are complementary to each other and can be used separately or together according to evaluation purpose of software usability. The problems in existing methods include a great deal of time for data analysis, professional skill demand, difficulty to point out problem, and relying on user’s memory. The first method based on quantitative data of brain wave belongs to operation evaluation. This method hypothesizes causal relation between user’s brain wave and emotion when using software. Through analyzing the specific scene pointed out by brain waves data, this method easily detects scene in which users feel difficulty in using software. A person without expert skill can also detect usability problems efficiently. The experiment verified that nearly 80% scenes in which users felt difficulty in using software could be detected with 73% analysis time cut down. The second method based on quantitative data of gaze point belongs to performance operation. It is hypothesized that a usability problem probably exist when a user’s gaze point moves long distance, or when a users’ gaze point moves slowly when using a web page. An experiment confirmed that usability problems could be found out by replaying the screen and gaze point motion when a user’s operation efficiency is low. The result shows this method improve effectiveness by making it easier to find out usability problem in evaluation. The third method based on quantitative data of first impression belongs to subjective evaluation. This method proposes a causal relationship between design factor and impression factor, which can indicate usability problem more clearly. Moreover, immediate comparison of first impression does not depend on user’s memory in usability evaluation. The method decides design factors that elicit target impression based on statistical analysis of impression data of web pages. Three experiments were conducted in three countries considering internationalization of WWW. The experiment results clarified design factors that elicit good impression in audiences of three countries. The thesis consists of five chapters. Chapter 1 introduces definition and importance of software usability. This chapter also clarifies existing software evaluation methods and their problems. This chapter also clarifies existing software evaluation methods and their problems. Chapter 2 proposes a method of usability evaluation by measuring brain waves. Chapter 3 proposes a method of web usability evaluation by gaze point information. Chapter 4 proposes a method of web usability evaluation based on audience first impressions. Chapter 5 concludes this thesis with a summary and future works.

0161013 工藤 拓 「Machine Learning and Data Mining Approaches to Practical Natural Language Processing」

概要: 大量の電子テキストから, 有用な知識を抽出, 管理するためには, 高性能, 頑健, かつ高速な言語処理が必要不可欠である. 本論文では, 機械学習とマイニングアルゴリズムを用いた, 「現実的な」言語処理手法を提案する. 近年, Support Vector Machines (SVMs) を始めとする高精度な機械学習手法が 提案される一方で, 要求される処理コストは増大しつつある. 高精度と高速処理は一般にトレードオフの関係にあり, 両立することは難しい. 例えば, 近年注目を浴びている Kernel 法は, 実際の応用における計算コストが 問題となっている. 本論文では,まず, Kernel 法を用いた, 高性能でかつ頑健な 言語解析システムを提案する.さらに, 応用範囲を広げるべく, それらの高速化 手法を提案する. 機械学習を用いた言語処理における, もう1つの問題として, 素性の設計が挙げられる. 自動もしくは半自動の素性設計が理想的であるが, 従来は, 試行錯誤によって素 性を設計することが多かった. 汎用的で, 再利用可能な言語処理を行うためには, 半自動の素性選択は必要不可欠である. 本論文では, 1) Kernel 法, 2) データマイニング, という2つの方法論に基づき半自動の素性選択手法について議論する. さらに, 半自動素性選択の一例として, 半構造化テキストの分類アルゴリズムを 提案する. テキストは, 種々の言語処理ツールを適用することで, 品詞や係り受け情 報が付与された「半構造化テキスト」に変換できる. テキストマイニングといった 高次の言語処理では, 半構造化テキストから, タスク依存の有益な情報(素性)を部分的に 選択して利用する. しかし, どのような情報が有益なのかすら分からないことが 多く, 選択自身が問題となっている. 本論文では, 発見的に情報を選択するよりは, 半構造化テキストをそのままの形で処理するほうが一般的であるという考えに基づき, 半構造化テキストの構造情報を直接反映できる学習/分類アルゴリズムを提案する. 本手法は,膨大な素性集合(情報)から, 有益な素性(部分情報)を自動的に選択する. 本論文の構成は, 以下の通りである. まず, 2章にて, SVMs の概要を述べ, 3,4章にて, SVMs を用いた, 高性能で頑健な言語処理 (Text Chunking, Dependency Parsing) を提案する. 5章にて, それらの高速処理を提案する. 6章にて, 半構造化テキストを対象とする学習/分類アルゴリズムを提案す

0161006 井上 雅史 「Statistical Learning from Multiple Information Sources」

概要: In intelligent information processing tasks such as pattern recognition and information retrieval (IR), probabilistic models are now widely used because they can represent ambiguities of observed data and are robust against noises. Parameters of probabilistic models are statistically estimated (learned) from given training data. However, when the training data contain an insufficient amount of information, the learned model becomes unreliable and its performance severely deteriorates. This thesis proposes two novel learning algorithms that use multiple information sources to mitigate this information scarcity problem in the following two applications. The first application is solving classification problems in which optimal class labels are automatically assigned to observations whose class labels are unknown. Among various types of classification problems, this paper considers classification of sequences that consist of sequential observation points. As a classifier, we focus on the hidden Markov model (HMM), which has been widely used for the classification of sequences. Generally, an HMM is trained on labeled data that consist of observed feature values and class labels. However, due to the high labeling cost, the amount of labeled training data is often small. In this thesis, we propose a learning scheme called semi-supervised learning to improve the classification performance even if the amount of labeled training data is small. The proposed scheme uses both of a small amount of labeled data, and unlabeled data that are not usually used for learning. First, we design a suitable HMM structure for using the unlabeled sequences. Then, we formally derive a semi-supervised learning algorithm in which the convergence property is theoretically guaranteed. Next, we apply the proposed method to two types of time series sequences: those acquired from sign language sign data and those acquired from speech phoneme data. Experimental results show that the proposed method outperforms conventional methods. The second application is solving IR problems, especially cross-media IR in which queries and corresponding target data belong to different media. More specifically, this thesis focuses on situations where queries are represented as text and target data are images. When textual annotations explaining the contents of images are provided, such cross-media image retrieval can be regarded as ordinary textual IR. In text retrieval, associations between words can be learned from data and used to relate queries and text in the documents. However, in image retrieval, the number of annotations is too small to learn the word relationships. Using the fact that annotations and images are related, we regard images as the paired data of annotations. We propose a method for estimating similarities among annotation words by using the paired image data to interpolate sparseness of annotation data. We apply the proposed method to the retrieval of photo images and show the usefulness of the paired data for improving retrieval performance. We also compare the proposed method with conventional methods to show its advantages.

0161022 鈴木 優 「メタ検索エンジンにおけるスコアの統合手法に関する研究」

現在, HTML 文書や PDF 文書など,テキスト情報のみではなく複数のメディア で構成された電子文書が,コンピュータネットワーク上で数多く用いられている. したがって,これらの電子文書を検索するためには複数のメディアに対応した検 索手法が必要となる.ところが,従来の検索システムは一つのメディアのみに対 応したものが多い.そこで,本研究では複数のメディアで構成された電子文書を 検索するための方法として,従来の一つのメディアのみに対応した検索システム を統合したメタ検索エンジンの精度向上に関する研究を行った. メタ検索エンジンは次の五つの手順からなり, (1) 検索対象から特徴量を抽出 し,(2) 複数の検索システムを用いてスコアを計算し, (3) 算出されたスコア を正規化し, (4) 正規化されたスコアを統合し, (5) 利用者に検索結果を提示 する.これらの手順のうち検索精度を向上させるために必要な手順は (3) と (4) である.つまり,スコアを統合する方法によってメタ検索エンジンの精度は 大きく変化すると考えられる. 本研究では,まずメタ検索エンジンの精度に最も影響すると考えられる点である 関数,つまり評価関数についての考察を行った.複数の検索システムで算出され たスコアを統合することによって,一つの検索対象について一つのスコアを計算 する.ところが,従来のメタ検索エンジンでは評価関数として相加平均や最大値, 最小値などの単純な関数が用いられることが多かった.一方,テキスト情報検索 における一つの検索モデルである拡張ブーリアンモデルにおいて多くの関数が用 いられている.そこで,本研究ではこれらの関数をメタ検索エンジンに用いた場 合に,精度がどのように変化するかを調べた. これらの実験結果から,スコアが正規化されていない場合とされている場合で検 索精度が大きく異なることが分かった.スコアは検索システムそれぞれで異なる 方法で計算されており,統一の基準で計算されているわけではない.その結果検 索システムが平等に統合されていないため,メタ検索エンジンの検索精度が低下 しているのではないかと考えた.また,従来提案されているスコアの正規化手法 では論理的に正しいと考えられる根拠に乏しいと考えられるため,本研究では論 理的に正しいと考えられるスコアの正規化手法を提案する.提案手法を用いてス コアの正規化を行うことによって,スコアがそれぞれ相互に統合可能な値に変換 することができる.

0161010 金森 正高 「Studies on Retrospective Identification of Link Layer Addresses in Distributed Forensic Databases」

Abstract: This dissertation presents an approach to assist an investigator with his/her incident analysis. In unexpected security incidents, one of the most important points is to ascertain whether or not a computer crime suspect is the culprit, and to avoid false charges. For this reason, various types of digital evidence are employed by an investigator to disclose a malicious user's activity. Accordingly, assurance of evidence is needed for an investigator to reach accurate conclusions. For this purpose, this research concerns two concepts: reliability and availability of evidence in the field of Computer and Network Forensics (CNF). An investigator performs CNF procedures on the basis that the mapping between an IP address and a link-layer address is assigned correctly. This research, therefore, first introduces the Self-Confirming Engine (SCE) for the purpose of protecting address mapping tables in both Address Resolution Protocol (ARP) in IPv4 and Neighbor Discovery Protocol (ND) in IPv6. Both address resolution protocols are indispensable in the current Internet, because hosts communicate with each other by obtaining the pair of IP address and link-layer address. Consequently, even if a malicious user tries to compromise the tables, an investigator can perform CNF based on the trails of an attack because evidential information is recorded properly by address resolution procedures with the SCE. This method makes CNF that depends on various types of evidence both possible and reliable. The proposed system, moreover, is designed to be as simple as possible, because complexity makes general-purpose uptake/installation impractical in future digital devices. Next, this dissertation presents an approach to making individual or obsolete evidence available, i.e. evidence linking. Even if an IP address or hostname is changed a long time after the occurrence of an incident, an information source accumulated by the SCE, called the SCEDB, is used to resurrect the links among traces recovered by the investigator. Consequently, by applying the SCEDB, an investigator can retroactively identify whether or not an unauthorized access suspect is in fact the trespasser. From the difference of address mappings between a normal host and a third party, moreover, the user can prove that he/she is not the malicious host. Finally, the importance of the two concepts is verified by implementation. An investigator can reduce the time required to analyze a security incident, and ensure that CNF works smoothly. Consequently, an investigator can indisputably determine guilt by applying this method. In this research, reliability and availability of evidence used as an information source are improved to resolve security incidents, and also trouble with a host or network. This research indicates that adequate preparation can enable users to cope with unexpected incidents.

0161021 杉山 一成 「Studies on Approaches to Improving Retrieval Accuracy inWeb Search」

With the rapid spread of the Internet, anyone can easily access a variety of information on the WWW (World Wide Web). Since information resources on the WWW continue to grow, it has become increasingly difficult for users to find relevant information on the WWW. In this situation, Web search engines are one of the most popular methods for finding valuable information effectively. However, users are not satisfied with the retrieval accuracy of search engines. We consider that the following two facts cause this problem: (i) accurate indexing of Web pages by considering their contents is not performed, (ii) most search engines cannot provide search results that satisfy each user's need for information. The aim of this thesis is to address the above problems in order to improve retrieval accuracy in Web search. In information retrieval systems based on the vector space model, the TF-IDF scheme is widely used to characterize documents. However, in the case of documents with hyperlink structures such as Web pages, it is necessary to develop a technique for representing the contents of Web pages more accurately by exploiting the contents of their hyperlinked neighboring pages. Therefore, in order to address the problem (i), we propose several approaches to refining the TF-IDF scheme for a target Web page by using the contents of its hyperlinked neighboring pages. Experimental results show that, generally, more accurate feature vectors of a target Web page can be generated in the case of utilizing the contents of its hyperlinked neighboring pages at levels up to second in the backward direction from the target page. On the other hand, Web search engines help users find useful information on the WWW (World Wide Web). However, when the same query is submitted by different users, typical search engines return the same result regardless of who submitted the query. Generally, each user has different information needs for his/her query. Hence, the search result should be adapted to users with different information needs. Therefore, to address the problem (ii), we propose several approaches to adapting search results according to each user's need for relevant information. Experimental results show that more fine-grained search systems that adapt to a user's preferences can be achieved by constructing user profiles based on modified collaborative filtering. We believe that, in the field of Web information retrieval, our proposed approaches contribute for indexing a target Web page more accurately, and allowing each user to perform more fine-grained search that satisfy his/her information need.

0061007 垣内 正年 「インターネットにおける高機能サービス実現のための 通信データに対する処理の選択機構に関する研究」

概要:  ネットワークサービスとは,情報を目的地に送り届ける仕組みだと言える.通常,情報 が目的地に到着するまでには,ネットワーク上の複数のノードを経由 する.正しい目的 地に情報が送り届けられるためには,各中継点で情報が次の中継点へ正しく転送される必 要がある.言い換えると,各ノードは転送先別に情 報を分類する必要がある.インター ネットサービスの多様化にともない,情報の分類は複雑化し,複数のサービス間で分類ポ リシが複雑に関係するようになっ た.この結果,サービス間のポリシの関係が不明瞭に なり,ネットワーク全体の制御が困難になった.本研究ではこの問題に対し,複数のポリ シに対応可能な 一般化した分類機構を構築するすることを目標としている.このため に,サービス依存・非依存の分離を中心にモデルを構築し,設計・実装を行い,実証実験 を通して検証と評価を行った.  分類機構の本研究の概念であるパラメータフィルタは,データを分類するデータベース の要素として,フィルタ規則であるレコードパラメータと処理内容で あるアクションの 組で構成する分類レコードを持つ.パラメータフィルタは,入力データの属性値である キーパラメータを入力すると,キーパラメータとレコ ードパラメータを比較し,適合し たレコードパラメータに対応するアクションを出力する.つまり,データを分類するため にフィルタ規則が記述された分類レ コードを分類する.  本研究の提案では,パラメータフィルタをサービス非依存部分とサービス依存部分の2 段階に分離する.サービス非依存部分の第1ステージは,キーパラメ ータとレコードパラ メータの比較方法を定義した分類スキーマにしたがって,入力データと分類レコードを比 較する.サービス依存部分の第2ステージは,サ ービス毎のポリシにしたがって,第1ス テージの結果からデータに適用するアクションを保持する分類レコードを選択する.これ により,第1ステージは分類 スキーマにのみ依存するために汎用的に使用でき,第2ス テージ内でサービス依存部分が完結するため,サービス毎のポリシに依存する処理が明確 にな る.QoS保証ネットワークを用いた実証実験の結果,本研究の提案モデルが実運用に も耐えうることが示せたが,サービスに特化したパラメータフィルタに 比べ,処理速度 性能が劣ることが明らかになった.  処理速度向上を図るために,パラメータフィルタの第1ステージに多次元空間上での効 率的な検索手法として知られるR*-treeを応用した.本研究の 提案する多次元空間上の仮 想包囲矩形を適用した高速化手法は,フレームワークの汎用性を維持しながら処理速度の 大幅な向上を達成し,分類フィルタ数が多 い場合にサービスに特化した実装を上回る性 能を示した.

0161038 DAO DINH KHA 「Efficient Indexing Techniques for XML Data」

Abtract: In today’s just-in-time information paradigm, the ability to communicate efficiently is vital. In this context, XML has been invented as a standard for data exchange among a variety of data sources and applications. The semantics of XML data is richer than the one of relational data by including both of its content and metadata. Therefore, XML requires new techniques for data management. The aim of this thesis is to design efficient indexing techniques for XML data. In this thesis, we investigate three critical issues of XML data management as follows. The first issue is to cope with intensively content-updated XML data. Among several methods of storing XML documents, a straightforward yet efficient method is to store a string representation of the XML document. An XML node is usually represented by a region coordinate. This approach, however, has the drawback that a change of a node’s region coordinate causes change of the region coordinates of many other elements that normally degrades the performance of XML applications. We propose the Relative Region Coordinate (RRC) technique to effectively reduce the cost of recomputation by expressing the coordinate of an XML element in the region of its parent element. We present a method to integrate the RRC information into XML systems and provide experimental results. The second issue is to cope with structure-update of XML data. For structure search on XML data, the structural information of XML data is essential to determine the structural relationships in XML documents. Several numbering schemes have been proposed so far to express the structural information using the identifiers of XML nodes. Since the structure of XML documents can be changed, the robustness of these numbering schemes is vital. We introduce a new numbering scheme called recursive UID (rUID) that has been designed to be robust in structural update and applicable to arbitrarily large XML documents. We investigate the applications of rUID to XML query processing in a system called SKEYRUS, which enables the integrated structure-keyword searches on XML data. The third issue is to exploit the schematic information to improve XML query processing efficiency. Although most of XML documents have associated DTD or XML schema, the prior query processing techniques have not utilized the document structure information efficiently. We propose a novel XML query processing method that uses DTD or XML schema to improve the I/O complexity of XML query processing. We design a Structure-based Coding for XML data (SCX) that incorporates both structure and tag name information extracted from the document structure descriptions. This property of SCX provides a Virtual Join mechanism that greatly reduces I/O workload for processing XML queries.

0161029 中山 貴夫 「大規模WWWサーバの設計支援のための性能評価技術に関する研究」

World-Wide Web~(WWW)は現在,インターネットにおける情報流通の主流となっ ており,新聞,テレビやラジオに加えた日常的な情報収集の手段としても利用 されるようになってきている.WWWサービスを安定して運用するには,そのた めには,メンテナンス体制を整えたり,サイトに応じた適切なサーバへの投資 が重要となる.特に,新たにWWWサーバシステムを構築する際には,導入する システムの正確な性能評価および性能の限界の調査は重要となる. そこで本研究では,大規模なWWWサーバの設計時に有効となるサーバの性能評価 を行うためのシステムを開発した. サーバシステムの性能評価はベンチマークを用いるのが一般的である.これま でにさまざまなWWWサーバベンチマークシステムが開発されてきた.しかし, WWWで扱われるコンテンツの内容はWWWが登場して以来変化を続けている.その ため,以下に挙げるように既存のベンチマークでは対応できない部分が多く存 在する.1) ベンチマークの対象となるファイルが一つだけであったり,あら かじめ用意されたアクセスパターンでしかベンチマークを実行できない点.2) SSLを用いた暗号化通信を用いた場合の性能評価ができない点.3) 次世代のイ ンターネット技術であるIPv6を扱えない点,である. 本研究では,これらのことを考慮した新たなベンチマークシステムANMA を設計,実装した.つまり,ベンチマークを行う際に,SSLによる暗号化を用い るか否か,アクセスするファイルをどうするかといったアクセスパターンを自由 に指定でき,IPv6とIPv4の両方のアドレスファミリでのリクエストを送信可能な ベンチマークである.このベンチマークにより,上記で述べた点を解決し,現実 のWWWサーバに近い環境での性能測定が可能となった. また,運用中のサーバの性能を評価するため,サーバに負荷をかけずリアルタイ ムにサーバの状態を観測できるシステムの設計,実装を行った.このシステムは サーバに負荷をかけないパケットモニタリングを利用し,その結果からサーバの 状態を判別するシステムである.そして実際に運営されたサーバの観測結果やベ ンチマークによる実験から,このシステムを用いてサーバの状態を把握できるこ とを確認した.

0161024 高嶋 章雄 「時間を利用した視覚的表現における情報理解のためのインタラクション」

内容梗概: 本研究は,時間的変化を伴う視覚的表現からの情報 理解を目的として,表現に対する 能動的なインタラクションを可能にする枠組み,およ びそれに基づくシステムを構築 するものである. 視覚的な表現は,言語が発達する遥か 以前から利用されてきた,情報を伝達するため の原始的な手段である.近年の計算機の 普及,および性能の向上により,視覚的表現 もその様相を変化させてきた.特に時間的 な変化を伴う表現,動画像の利用機会は急 速に増加し,より身近な存在になりつつあ る.しかしながら,その利用形態は従来の 映写機やビデオデッキを踏襲したものが多 く,計算機としての機能を十分活用してい るとはいえない.そこで本研究では,情報の 理解を目的として,時間を利用した表現 方法,および表現に対するインタラクションを 探る. 計算機上で時間概念はどのように扱われるべきか,これを明らかにするために, 本研 究ではまず,情報アニメーション環境を構築し,ユーザ観察を行った.結果から, 連 続的なデータを表すのに時間表現が有効であること,時間的変化を伴う視覚的表現か ら情報を理解する際には,時間的,および視覚的インタラクションを行うことがわ かっ た. 人間は,外在化された表現から情報を理解する際,表現を受動的に享受するだけで な く,その表現を様々に捉え直すことで理解を深めていく.ここでは,対象となるメ ディアが保持している,表現のための属性値と,人間が経験するそれらの値とは必ず し も一致しない.本研究では,メディアの持つ属性において,あるデータが元来保持 して いる値をメディアデータ値(MD値)とし,人間が実際に経験する属性値をユーザ エクス ペリエンス値(UE値)と呼び,明確に区別した.表現に対する能動的なインタ ラクショ ンを行うことは,即ち,対象となるメディア固有の属性値を,ユーザが自由 に変更して 経験することと換言でき,インタフェースデザインやインタラクションデ ザインなど, メディアと人間との係わり合いを考慮する場面において,これら二つの 属性値の対応関 係を把握しておくことが重要である. 既存の可視化研究においては,理解のための有効 な手段として,情報の概観と詳細を 表現し利用することが研究されている.ここでは主 に,可視化表現の表示面積に関す る属性のMD値をUE値に変更し,拡大表示することで詳 細を,縮小して多くの情報を表 示することで概観を表すものである.本研究では,これ を時間に応用し,時間的な概 観と詳細の表現を提案した.ここでは,時間属性を持つ情 報を速い速度で経験させる ことを概観とし,遅い速度で経験させることを詳細とした. サッカーの試合を記録し た動画像を例に挙げると,速い速度での閲覧により,選手のポ ジショニングや試合の 流れなどを知ることができ,遅い速度での閲覧は,フェイントな どの細かな動作を理 解することに役立つ. 本研究では,時間を利用した視覚表現に対し て能動的なインタラクションを提供する 枠組みとして,TbVP(Time-based Visual Presentation)モデルを提案した.動画像 の持つ視覚的属性と時間的属性に対するイン タラクションを可能にし,情報の理解支 援を行う.TbVPモデルに基づき,動画像を能動 的に閲覧するシステム,TbVP Browser を構築し,探索的な動画像分析タスクにおけるシ ステム利用実験を行った.結果か ら,表現とのインタラクションを通して情報の概観と 詳細を捕捉しながら,能動的に 情報理解を試みる様子が観察された. 本論では,TbVPモ デルの意義について述べ,今後ますます利用頻度が高まるであろう マルチメディアデー タの利用に関して考察する.また,日常生活において情報を理解 し,蓄積,再利用する 観点から,MD値とUE値を考慮する必要性について展望する.

0361015 多喜 正城 「ALGORITHMS FOR INDEPENDENT SET IN SOME KINDS OF GRAPHS AND ITS APPLICATIONS」

内容梗概: 本論文では、ある種のグラフにおける、独立頂点集合に関するアル ゴリズムと、それを用いた、教育システムへの応用について述べる。 この論文は、5章からなり、第1章では、極大独立頂点集合に関する生成問 題を取り上げ、第2章では、最大重みを持つ独立頂点集合に関するアルゴリズ ムについて、いくつかのインターセクショングラフに関して述べ、第3章及 び、第4章では、バイパータイトグラフの辺をオンラインで彩色していくアル ゴリズムについて述べている。そして、第5章では、独立頂点集合に関するの 応用として、教育システムに関する1解答を提供している。各章の関連につい て、それぞれ、独立集合という共通の課題から議論している。 各章の概略をここで述べる。 第1章、 頂点sから頂点tに至る単純有向道st-path上の頂点集合(s、tを 除く)と、無向グラフGの極大独立集合(MIS)の族が一致するとき、Gの MIS-diagramという。ここでは、無向グラフがMIS-diagramであるための有向グ ラフに対する必要十分条件と、無向グラフがMIS-diagramを持つための必要十 分条件は、GがCo-comparability グラフであることを示す。さらに、正の重 みを持つ場合に、MIS-diagramは、重み付MIS-diagramを得る方法も示してい る。 第2章、 頂点数がn、最大重みを持つ独立頂点集合の頂点数の総和をβとした とき、circle-graph の最大重みを持つ独立頂点集合を重複なしに、列挙する アルゴリズムが、O(n3+β)の時間オーダであることと、それが、他の交グラフ にも応用することができることを示している。 第3章、 辺の色付け(入力)が予め判っている時の方法を、off-line辺彩色ア ルゴリズム、それに対し、予め判っていなくて、辺が追加されるたびに彩色し ていく方法を、online辺彩色アルゴリズムという。online辺彩色アルゴリズム の使う色と、off-line辺彩色アルゴリズムの使う色との比の最大値を、 online辺彩色アルゴリズムのcompetitiveness係数という。使われる色の最大 数kとしたとき、competitiveness係数が(2k-1)/k となることを証明。 第4章、 上記の辺彩色をバイパータイトグラフで行い、kを制限したとき、 competitiveness係数が1/4、competitiveness係数が1/2 になるアルゴリズム を与えている。 第5章、上記で考察されたことから、MISが、st-graphであることを用い、頂点sを入 学、頂点tを卒業として捉え、入学から卒業までに提供されるカリキュラムの 中から、極小な選択科目を選ぶことが、st-graphの極小st-separatorを求める ことと一致することを述べる。

0161011 鎌田 久美 「3次元画像を用いたVR医学に関する研究」

本論文は、VR技術を用いて医療に役立つシステムの研究を行なったもので、 1.高周波の超音波画像による皮膚と眼の三次元再構成画像、2.没入型ディスプ レイにおける腎臓糸球体のインタラクティブ観測システム、3.複合現実感空間 (Mixed Reality:MR)での仮想物体と実物体との同時表示、の三研究により構成 される。 最初の高周波超音波画像による三次元再構成画像の研究では、これまで可視化 が困難であった体内の微細構造の提示を可能とする。一般に、超音波画像は、 周波数3-10MHz の範囲で作用しており、およそ1mmの分解能で対象物を可視化 することができる。しかし、この解像度による画像では人体における詳細な構 造を可視化することは難しい。本研究では、超音波の周波数が32MHz、分解能 0.025 mmの高周波超音波画像を三次元に再構成することにより、皮膚における 角質層、表皮、真皮と、眼における角膜と虹彩の詳細な構造を観察することを 可能とする。 次に、腎臓の微細構造である腎臓糸球体を、没入型仮想空間提示装置 (CYLINDRA)を用いてインタラクティブに観測できるシステムについて述べる。 腎臓機能の評価方法のひとつとして、CCD顕微鏡での観察により腎臓糸球体の 個数と体積を計測し、腎臓糸球体の状態の把握・評価という手法が使われてい る。しかしながら、顕微鏡という道具では、二次元的に腎臓糸球体を観察する ため、個数、体積を正確に把握することが難しいという問題点がある。提案シ ステムでは、三次元X線CT画像をCYLINDRAで立体表示することで微細組織の詳 細な観察を可能にする。また、魚眼レンズ付きカメラとLEDを用いて CYLINDRA内でインタラクションを行うためのインタフェースを構築する。構築 インタフェースを用いることで,ユーザは拘束されることなく自由に,インタラ クティブに糸球体の個数を計数することができる。 最後に、視触覚融合システムのための複合現実感空間での仮想物体と実物体と の同時表示について述べる。見たところを触れることは、より高い臨場感を与 えるため、現在、視覚と触覚を融合した研究が、VR研究で行なわれるようにな ってきた。本研究では、複合現実感空間における遮蔽矛盾問題を解決した実物 体と仮想物体の同時表示について述べる。複合現実感空間において、違和感な く人間の手と仮想物体とが相互に表示されるためには、実物体である手と仮想 物体との位置関係を正確に表現することが必要である。しかしながら、ヘッド マウントディスプレイ(Head Mounted Display:HMD)における仮想物体は常に ユーザの手の前に位置し、一方、ディスプレイ(CRT)で提示される仮想物体は 常にユーザの手の後ろに位置するという、遮蔽矛盾問題が生じる。この問題を 解決するために、複合現実感空間において、実物体である手の位置に合わせて 仮想物体を表示するシステムを構築する。このシステムでは、人間の手の前に ある仮想物体をシースルー型HMDに表示し、人間の手の後ろにある仮想物体を CRTに表示する。このシステムにより遮蔽矛盾問題が解決され、自由に、任意 の仮想物体を手にとって観察することが可能となる。さらに、このシステムに 触覚機能を加えることにより、仮想物体に触れることが可能となり、医療への 応用が期待できると考える。

0161025 高林 哲 「検索技術とコミュニケーション技術の統合」

近年、インターネットの普及により情報の循環は飛躍的に加速し、 情報をより効果的に生産し共有するための研究が盛んに行われて いる。情報の生産と共有を一連の流れとして見ると、どのように 必要な情報を見つけ出し、どのように情報をまとめ、どのように 情報を公開していくか、といった要素が密接に絡み合った過程と して捉えることができる。本論文では、こうした過程における検 索とコミュニケーションの重要性に注目し、二つの技術の統合に よる情報の生産性の向上を目指す。 まずはじめに、検索のユーザインタフェースを改善する日本語の インクリメンタル検索手法 Migemo を提案し、実際のユーザによ る定量的評価を通じて有効性を示す。次に、各種検索技術を用い た作文支援手法を提案し、大量の言語データを利用した手法が実 際の作文に役立つことを示す。そして、生産された情報を他者と 手軽に共有するためのグループコミュニケーションシステム QuickML を提案し、実際の公開サービスの運用経験を通じて有効 性を示す。このように、情報の生産と共有を一連の流れとして捉 えて支援することにより、インターネットにおける情報の循環を より一層充実したものにできると我々は考えている。

0161033 南 広一 「遠隔地間におけるリアリティの共有と協調作業に関する研究」

バーチャルリアリティ(Virtual Reality:VR)技術の発達に伴い,コンピュータ 内に仮想空間を構築し,複数のユーザがその空間の中でコミュニケーションを 行えるシステムが数多く提案されるようになった.しかし,従来のシステム は,ユーザのアクセス可能な範囲が仮想空間内に限られており,シミュレーシ ョンや,コミュニケーションなどの用途にしか用いられておらず,現実的な問 題の解決に用いることはできない. 近年,P.Milgramにより,複合現実感(Mixed Reality:MR)技術が提唱され,シ ステムがユーザに,現実と仮想をシームレスに融合させた形で提示するという 研究が活発に行われるようになった.また,コンピュータの小型化・高性能化 により,携帯型情報端末(PDA)や,携帯電話にまで,高速な処理能力が備わっ てきており,ウェアラブルコンピュータと呼ばれる,ユーザがコンピュータを 常時装着するという研究が世界中で活発に行われるようになった. 本研究では,このMR技術とウェアラブルコンピュータ技術を用いることで,よ り実用的な空間共有システムの構築を目指し,これらの技術を用いて,現場で ウェアラブルコンピュータを装着したユーザと,遠隔地の没入型ディスプレイ 装置の中にいるユーザとの間で共有されたMR空間を構築し,いつでもどこでも ウェアラブルコンピュータを装着したユーザの周囲の環境を遠隔地と共有し, 即座に協調作業が行えるMR空間共有というフレームワークを提案する. 具体的には,本フレームワークでは,現場にいるウェアラブルコンピュータを 装着したユーザと,遠隔地の没入型ディスプレイ装置との間をネットワークで 接続し,現場のユーザには現実空間に仮想空間が重畳された空間を提示し,遠 隔地のユーザには,現場の実画像に仮想空間が重畳された空間を提示する.そ して,双方のユーザに公平なコラボレーション環境を提供する.また,ウェア ラブルコンピュータを用いることで,「今すぐ」,「今ここで」,現実に起こ っている出来事にも即座に対応することができる. 上述のフレームワークを用いた提案システムの構築のために,本論文では,遅 延の大きな環境においてもユーザに快適なオブジェクト操作を提供し,かつ現 実空間と仮想空間との間でオブジェクトの一貫性を管理するための手法「複製 −選択プロトコル(Duplication-Selection-Protocol:DSP)」および,ウェアラ ブルコンピュータとポータブルな全方位カメラシステムを組み合わせること で,屋内の三次元モデルの作成と修正がインタラクティブに行える屋内モデリ ング手法「ポンチ3D(Punch3D)」を提案する. そして,上の技術を用いたプロトタイプシステムとして,共有MRインテリアデ ザインシステムを構築し,「複製−選択プロトコル」および「ポンチ3D」につ いての評価を行い,提案技術の有用性について考察を行う.

0161005 乾 孝司 「接続標識に基づく文書集合からの因果関係知識獲得」

内容梗概: 人間のような深い言語理解能力を工学的に実現することを妨げているひとつの 原因として,計算機で利用可能な大量の常識的知識をいかに構築するかという 問題がある.本論文では,常識的知識のうち,人工知能の分野をはじめ,多く の学術領域において関心が向けられている因果関係に関する知識に着目し,大 規模な電子化文書集合から因果関係知識を自動的に獲得する方法について論じ る. 因果関係とは,何らかの依存関係がある出来事間の関係を指し,例えば, 「大雨が降ると洪水が発生する」や「列車に乗るので切符を買う」などがある. 従来より,因果関係は様々な観点に従った幾つかの種類に分類されてきた.本 論文では,談話理解研究で設計されたAllenのプランオペレータに関わる4種 類の因果関係(``原因'',``効果'',``前提条件''および``手段'')を取り扱 う. 知識獲得の基本的アプローチは,接続助詞(「ため」や「ので」)などに代 表される接続標識を手掛かりとすることにある.ただし,どの接続標識を含む 言語表現であっても,常に必然性の高い因果関係を表現する保証はない.また, 同一の接続標識を含む言語表現から,上述した因果関係のうち,2種類以上の 因果関係知識が獲得できる可能性がある.そのため,接続標識以外の情報を利 用することで獲得可能な因果関係を同定し,適切な因果関係知識を抽出する枠 組みを検討する必要がある. 本論文では特に接続標識「ため」を含む複文に注目し,(1)対象(「ため」 を含む複文)中に獲得すべき因果関係はどの程度現れるか,(2)対象中に現 れた獲得すべき因果関係をどの程度の精度で同定でき,どの程度の量の知識が 獲得できるか,(3)獲得された因果関係知識がどのような応用に貢献できる か,について議論する.

0061201 小作 浩美 「Studies on A Task Oriented Information Recommendation System based
on Natural Language Processing Technologies
(自然言語処理技術を利用したタスク型情報推薦システムに関する研究)」

内容梗概: This thesis addresses the issues related to retrieve information for users need in the information retrieval systems of electronic resources such as World Wide Web (WWW). For retrieval system architecture, I assume a kind of recommendation system. This architecture can retrieve information suited directly to a user's purposefrom the electronic text resources. In other words, recommendation systems should retrieve information suited directly to a user's purpose, organize the information and utilize this information. In developing a recommendation system, the most important focus should be on showing clear reasons for recommendation. Therefore, the system needs a knowledge (database) for the reasons, and should also gather information as a basis of recommendation, as well as organize information into a database, and operate this basis information appropriately. The first goal of this thesis is to investigate the performance of NLP technologies for electronic text resources other than newspaper articles. To develop the two prototype support systems, I investigate abilities that are widely applicable to NLP technologies expecially extraction and classification. Furthermore, to exploit well-known technologies of information retrieval, I examine how to treat a huge amount of data, such as the WWW. I investigate the ability of several information retrieval technologies to process WWW data, and compare the precision rates of these technologies in terms of efficiency. The second goal is to discuss the recommendation systems in relation to the information retrieval systems for the WWW, and to produce a task-oriented recommendation system. In this thesis, I focus on the task of recommending tourist routes. The third goal is to organize and extract information as bases of recommendation, and in doing so to combine NLP technologies. The final goal is to evaluate my retrieval method by extractinginformation as bases of recommendation. I also discuss the effectiveness to organize information as a database.

9761001 石川 正敏 「歴史文献のための電子スクラップブックシステムに関する研」

内容梗概: 本論文では,木簡や古文書などの歴史文献と注釈を共有するためのデータモデルを提 案し, 共有したものを編集する電子スクラップブックシステムと歴史文献の時空間情報に基 づく分 類支援などの注釈の再利用について述べる.まず本論文では,歴史文献の特徴について 考察し,計算機環境での歴史文献を利用する研究活動を支援するための要件をまとめる. この要件に従って,歴史文献の画像と注釈の関係を管理する文献データモデルと,歴 史文献 の分類を管理する電子スクラップブックデータモデルとを定義する.さらに,歴史文 献に関する 注釈を効率的に再利用するために,その内容に基づいて,注釈のデータ構造を定義する. 次に,提案したデータモデルに基づく電子スクラップブックシステムのプロトロタイ プシステム の実装を行う.このシステムは,歴史文献への注釈の追加や,文献の収集,文献デー タや注釈 の共有を支援する.本論文では,利用者間での文献や注釈の交換や検索のために, データを XML や関係データモデルにより記述する.電子スクラップシステムの操作として,注 釈の編集操作, 既存の文献データから新たな文献データを作成する切抜き操作,検索操作があり,そ れぞれについ て述べ,実行例を示す.また,歴史文献の画像に関連する注釈の応用として,文献 データの WWW 環境での閲覧の支援を行う.閲覧の支援方法としては,歴史文献のレイアウトに従っ て記述内容の テキストデータを HTML 文書として表示する方法と,歴史文献の画像と注釈の関連を WWW 環境で 表現する方法について述べる.さらに,歴史文献の分類と分析を支援する方法とし て,歴史文献の 記述にある地理情報や時間情報に対する問合せ処理について提案する.歴史文献から 得られる 時空間情報は,(1) 同一地域であっても時代によって地名が異なる,(2) 境界があい まい, (3) 内容に矛盾があるいう特徴がある.また,注釈として与えられる情報は,地名以 外の記述が ないように不完全なことも多い.本論文では,このような特徴をもつ時空間情報を考 慮した時区間関連 と領域関連を定義し,問合せ処理におけるそれらの関連の判定処理について述べる. さらに、 時空間情報の値が欠落している部分を補完する方法として,与えられた時空間情報の 集合を 分類した結果を用いる方法について述べる.本研究により,人文社会科学や歴史学研 究における 効率的な情報の収集と共有が可能がになり,さらに,教育や電子図書館の個人利用な どの他の 分野へ応用も広がっていくと期待される.

情報科学研究科 専攻長