平成25年度 情報科学研究科 博士学位論文発表梗概


1261026 Nor Aini Binti Zakaria
Application of Wearable Inertial Sensor in Clinical Practice

 This study reports the quantitative classification of falling risk among elderly using the wearable inertial sensors, which combines accelerometer and gyrosensors devices, applied during standard physical assessment test: Timed Up and Go (TUG) test. The total time duration to complete the whole experiment were used as threshold to categorize the 38 subjects into two groups; as low fall risk (LFR) and high fall risk (HFR). During the experiment, one sensor was attached at the subject’s waist dorsally. The acceleration and angular velocity signals in three directions were extracted using the sensors, during the test. The analysis then divided the whole test into phases: sit-bend, bend-stand, walking, turning, stand-bend, and bend-sit. Comparisons between the two groups using time parameters along with RMS value, amplitude and other parameters that was analysed from the extracted signal revealed the activities in each phase. Using obtained parameters, we demonstrate classification process using k-NN, multivariate analysis and Random Forest analysis in order to classify the subject using other parameters for each phase. This study is an improved method in evaluating fall risk, which promises benefits in terms of improvement of elderly Quality of Life (QOL).


1061201 荒木 貴光
Adaptive Markov chain Monte Carlo for auxiliary variable method and its applications

マルコフ連鎖モンテカルロ法(MCMC法)はマルコフ連鎖を用いた確率分布からのサンプリング法であり,統計物理学,機械学習など様々な分野において必要となる複雑で高次元な確率分布からのサンプリングに有効である.多峰性のある確率分布やベイジアン変数選択における特殊な事後分布に対してはパラレルテンパリング,ギブス変数選択法など補助分布を用いたMCMC法が提案された.このような補助分布を用いたMCMC法のクラスを補助変数法という.  パラレルテンパリングは,多峰性のある確率分布に逆温度パラメータを導入して多峰性を徐々に緩和した分布列を構成する.それぞれの分布からサンプリングとサンプルの交換を行い,サンプルが局所領域に留まるのを防ぐ.パラレルテンパリングの性能は逆温度パラメータと分布列に対するMetropolis法の提案分布の分散に強く依存し,従来は多数の予備実験と試行錯誤によってそれらパラメータの調整が行われてきた.  ギブス変数選択法は,ベイジアン変数選択における不連続で多峰性をもつ事後分布から擬似事前分布を用いて効率よくサンプリングする方法である.ギブス変数選択法の性能も同様に擬似事前分布のパラメータ,提案分布の分散共分散行列に強く依存する.従来は一度の予備実験でパラメータを設定するという方法がとられてきたが,それでは適切なパラメータを得ることができない.  本研究では,これらパラメータ設定の問題に対して,パラレルテンパリングとギブス変数選択法を拡張して,サンプリングしながらパラメータの値を更新する適応的パラレルテンパリングと適応的ギブス変数選択法をそれぞれ提案する.数値実験を行い,提案アルゴリズムが適切なパラメータを得ることを確認する.  さらに,上述した提案アルゴリズムを一般化して補助変数法でサンプリングしながらそのパラメータを適応的に更新する適応的な補助変数法を提案する.そのアルゴリズムの収束定理を証明し,緩い条件下で適応的な補助変数法が収束することを示す.また,この定理を用いて適応的パラレルテンパリングと適応的ギブス変数選択法の収束を示す.


1061201 Mary-Clare Dy
Axial optical tweezers for the measurement of localized cell stiffness

Designing an optical tweezers to apply constant force on the cell and computing the cell stiffness can offer insights about how cells respond to outside mechanical stimulus [Mofrad, 2006], which in turn can provide vital information about cellular functions such as cell motility and mitosis of cancer cells [Sheetz, 1998]. Cells and biomolecules are typically investigated by lateral manipulation of the optical tweezers, in particular, the Cell Palpation System [Miyoshi, 2009] which is the springboard for this study. Because cells move in three dimensions, incorporating an axial mechanical stimulation can elucidate the overall effect of forces exerted on biological materials. Studies that investigate axial manipulation integrate other devices such as spatial light modulators, and deformable mirrors, or modify the laser pattern, yet these studies concentrate on measuring three-dimensional particle position, trapping stiffness, and forces. To integrate an axial manipulation system but, at the same time, minimize the modification of the existing optical tweezers setup, a simple scheme is proposed: the axial manipulation system can is designed to manipulate particles in the axial direction, and estimate particle movement with nanometer sensitivity. 4μm- and 2μm-sized polystyrene particles were axially manipulated for approximately 5μm and 6μm, respectively. The system is applied on the measurement of cell stiffness using Hertz model. A series of experiments were performed to obtain the necessary parameters for the cell stiffness computation: the trapping stiffness, the forces exerted on a Balb3T3 cell, and the cell deformation, were evaluated. The localized cell stiffness computations for a given cell sample were 17Pa and 40Pa using 4μm- and 2μm-sized particles respectively. Results suggest that the proposed optical tweezers scheme can obtain the necessary parameters for the computation of axial cell stiffness using Hertz model.


1061013 鈴木 祐輔
実行中の動作配列に発生する,反応選択処理からの干渉の神経行動学的意義

 環境の多様性は,そこに置かれた生物に多くの可能な行動の選択肢を提供する.そのため,環境からの刺激に応じて適切な反応を選択する処理(反応選択処理)は,ヒトを含めた生物にとって極めて重要な機能である.一方で,環境からは絶えず複数の刺激が入力されていて,それぞれに対する反応選択処理は常に競合状態にある.そのため,しばしば,それらの処理の間に干渉が発生し,実行中の行動は停止され,新たな行動が選択される.本研究では,心理学および神経行動学的アプローチから,反応選択処理の競合から生じる干渉が行動をどのように分岐させるのかを検証し,その意義を考察した.第 1 章では,ヒトを対象とした心理実験から,反応選択処理の競合および干渉が,それがないときと比較してどのように行動を変化させるのかを示した.第 2 章では,行動を複数の単純な動作の配列に細分化することで,実行中の行動のどの動作で干渉が発生し,これ以降どのような動作配列に分岐するかを検証した.ラットを対象とした行動実験で,個体が危険を知覚した際に選択される動作配列を通常時のそれを比較した結果,両者の分岐点となった動作と,危険を知覚した際に特有の動作が示された.特に後者では,個体を危険源から遠ざけるような動作が促進される一方,その場に留まるような動作が抑制された.本研究を通して,反応選択処理の干渉は,環境に対して個体がより瞬時に適応的な振る舞いをするために重要な意義を持つと結論された.


1261010 西川仁 
Automatic Summarization on Various Domains with COmbinatorial Optimization and Machine Learning (組み合わせ最適化と機械学習による多様な分野に対する自動要約)

 自動要約の対象となるテキストの種類,量が増加しつつある.これはインターネットの普及に伴い電子 化されたテキストが増加したためであり,テキストの多様性が増すにつれて自動要約において新しい課 題が生じている.課題は大きく分けて3つ存在する.第一に可読性の問題であり,第二に内容性の問題で あり,最後に要約速度の問題である.本研究の目的は,自動要約において新しく生じたこれらの課題に対 して,新しい自動要約の方法を提案し,これを解決することである. 本研究の主たる貢献は,これらの問題それぞれに対して解決の方法を示した点にある.まず,可読性の 問題に対しては,文の抽出と順序付けを同時に行う要約モデルを新しく提案し,これを整数計画問題とし て表現し解くことによって,文の抽出と順序付けを別個に行う既存の手法に比べて可読性が改善された 要約を生成できることを示す.次に,内容性の問題に対しては,転移学習を利用することで異なる分野の テキストを教師事例として用いることで内容性が改善された要約を生成できることを示す.最後に,要約 速度の問題に対しては,新しい要約モデルである冗長性制約付きナップサックモデルと,ラグランジュヒ ューリスティックに基づく高速なデコーディングアルゴリズムを提案し,良好な要約を高速に生成できるこ とを示す. 本論文ではまず,本研究の目的,意義を明らかにする.次に,準備として,整数計画と構造学習について 概観する.本論文中で扱われる自動要約の課題はすべて組み合わせ最適化問題の一種として表現さ れるため,組み合わせ最適化問題を表現しこれを解くための強力な枠組みである整数計画について簡 単に説明する.また,自動要約の課題に含まれるパラメータを推定するための方法として,構造学習につ いても説明する.そののち,自動要約研究について広く概観し,本研究の位置づけを明らかにする.これら の準備ののち,上述した3つの問題について詳述する.第一の可読性に関する問題では,評価文書集合 を要約の対象として取り上げ,提案する方法により要約の可読性が改善することを示す.第二の内容性 に関する問題では,コンタクトセンタログを要約の対象として取り上げ,提案する方法により要約の内容 性が改善することを示す.第三の要約速度に関する問題では,新聞記事集合と評価文書集合を要約の 対象として取り上げ,提案する方法により要約速度が改善することを示す.最後に,これらの結果を踏まえ, 更なる研究の方向性を示す.


1061033 Luo Yanyan (羅 彦彦) 
Syntactic Dependency Structure-based Approaches for Chinese Semantic Role Labeling (統語的依存構造を用いた中国語述語項構造解析)

Semantic roles, logical relations such as Agent, Theme, etc. that hold between predicates and their participants and circumstances, need to be determined automatically in a wide range of natural language processing applications. This process is referred to as Semantic Role Labeling. This dissertation describes how to construct statistical models for Chinese semantic role labeling, and explores what is helpful for it. Recently, dependency parsing based methods have achieved much success in semantic role labeling. However, due to errors in dependency parsing, there remains a large performance gap between semantic role labeling based on oracle parses and semantic role labeling based on automatic parses in practice. In light of this, this work devotes considerable effort to investigating the statistical models for semantic role labeling and what additional features are necessary to close this gap. Semantic role labeling is often divided into three subtasks: predicate disambiguation, argument identification and argument classification. In this thesis, we propose a dual decomposition algorithm to alleviate the error propagation between argument identification subtask and argument classification subtask. In the experiments, we achieved competitive results compared to the state-of-the-art systems. Apart from the statistical models for semantic role labeling, we investigate two kinds of additional features: additional dependency information in the form of N-best parse features and orthogonal non-dependency information. We compare the above features in a semantic role labeling system that achieves state-of-the- art results on the corpus. In the experiments, we achieved top result to our best knowledge.


0261001 芦村和幸 
Discourse Timing Model and International Standardization by W3C (音声対話のタイミングモデルとW3C の国際標準化)

 近年,スマートフォン等の各種携帯端末の性能向上を受け,Web アプリケーションに音声認識や手書き認識等の様々な入出力モダリティが利用されるようになってきている.その一方で,スマートフォン等で用いられているタッチパネルの 操作は,歩行中や運転中のような「ながら利用」には不向きであり,様々な状況 において適切に利用者を支援する技術が求められている.本論文では,この課題 を解決するため,音声インタフェース,特に音声合成によるインタフェースに注 目し,発話タイミングと発話速度に関する研究に取り組んだ.その結果,対話に おける発話タイミングの機能が明らかとなり,対話制御モデルの基礎になる知見 を得た.この結果に基づき,ネットワークベースの音声対話協調フレームワーク の必要性について提案した.その後,2005 年よりWeb 技術の国際的標準化団体 であるW3C (World Wide Web Consortium)において,マルチモーダル対話シス テムの標準化活動責任者 (Activity Lead) として従事し,Web ベースのフレーム ワークが「多様な利用環境におけるより使いやすいコンピュータ・インタフェー スを実現する」という目的を達成するのに最適であるという結論を得た.一方で, ネットワーク上に分散する様々な機器上の機能を統合するにあたっては,各機能 コンポーネントの実装や,コンポーネント間のインタフェースがサービス提供者 ごとに異なるため開発者の負担が大きいという課題があることを明らかにした. この課題を解決するため,開発者の力量に依存することなく柔軟なシステム構築 を可能とするべく,W3C の国際標準である「W3C MMI アーキテクチャ」にもと づく標準化ライブラリである「MMI over WebSocket」(以下,「MoW」)を提案す るとともに,実際にJavaScript ライブラリとして実装した上でその可用性につい て確認した.MoW により,2002 年当時は実装が困難であった「多様な利用環境 における様々な利用者にとって,より使いやすいコンピュータ・インタフェース」 が実現可能となった.


1261202 進藤 裕之 
Statistical Induction of Tree-Generating Grammars for Natural Language Parsing (構文解析のための木生成文法モデルの統計的推論に関する研究)

自然言語処理において,構文解析な重要な課題である.統計的アプローチに よる構文解析では,あらかじめ構文木コーパスから文法モデルに基づく文法規 則と確率を推定し,それらの規則群を用いて解析を行う.本論文では主に,確 率的文法モデルの設計と,構文木コーパスから文法規則を推定する手法につい て論じ,高精度な構文解析器を実現することを目的とする. 近年,任意の大きさの部分木を文法規則とする木生成文法モデルの統計的推 論方法が盛んに研究されており,自然言語処理の様々なタスクにおいて一定の 成功を収めている.しかしながら,これらの文法モデルを構文解析に用いた場 合,高度に最適化された最先端の構文解析器と比較して,精度が劣ることが知 られている. 本論文では,まず,上記の文法モデルに木の挿入操作を導入して非連続な部 分木パターンも扱えるように拡張し,サンプリング法に基づいて本文法モデル の統計的推論を行う手法を提案する.また,実際の構文解析実験において,本 手法が構文解析の精度向上に寄与することを示す. 次に,部分木を自動的に細分化することにより,文脈情報を捉えてデータに 適応することのできる確率的文法モデルと,サンプリング法に基づく統計的推 論方法を提案する.また,実際の構文解析実験において,本手法が従来の構文 解析器よりも高精度を達成することを示す. 最後に,木生成文法モデルの統計的推論に用いるサンプリング法を効率化さ せる新たな近似サンプリング法を提案する.本手法は,構文木コーパスに含ま れる共通の部分木をまとめて更新することで,最適解の探索を効率的に行うこ とができる.また,実験により本手法の有効性を示す.

1061206  Jovilyn Therese B.Fajardo 
Information Collection in Disaster Areas Using Participatory Sensing and a Delay Tolerant Network

When a large-scale disaster strikes, situational awareness over the disaster area is important because first responders need timely and accurate information to assess the situation in the affected area and to provide an effective and immediate assistance. During this time, the communications infrastructure is usually unavailable and a mobile ad-hoc network is utilized to gather critical information using the mobile phones of people in the disaster zone as sensing nodes. In the first part of this thesis, a disruption tolerant network (DTN)-based data aggregation method is proposed to achieve maximum coverage of an area of interest (AoI) within the disaster zone while minimizing delay. In this method, mobile phone users create messages containing disaster-related numerical information (e.g., injured 8) and merge them with their respective coverage areas resulting in a new message with the merged coverage. The merging or aggregation of multiple messages will reduce message size and minimize the overall message collection delay. However, simply merging the messages can result in duplicate counting; to prevent this, a Bloom filter is constructed for each message. The Bloom filter prevents messages containing the same information on a given location from being aggregated. In addition, to reduce further the message delivery time, the expected reaching time of a node to its destination (ert) is introduced as a routing metric. Through computer simulation with a real geographical map, we confirmed that the proposed method achieved a smaller delay than epidemic routing limited. In the second part of this thesis, a content-based image prioritization technique in a delay tolerant network is proposed to achieve fast collection of images with critical content (e.g., fires, road blocks) that need urgent attention. Geotagged disaster images are collected by mobile users and assigned priorities based on their content through image processing using OpenCV. A preinstalled mobile application on the users' phones detects critical content in the images. The detected images with critical content are sent over the network faster than images with noncritical content. Through testing and computer simulation, we confirmed that the proposed method with image prioritization achieved a higher percentage of received images with critical content corresponding to a smaller delivery latency than without image prioritization.

1161022 小沢 哲 
Bayesian Cell Force Estimation Considering Force Directions

Traction force microscopy is a useful technique for measuring mechanical forces generated by cells. In this method, fluorescent nano beads are embedded in the elastic substrate of cell culture, on which cells are cultured. Then, cellular forces are estimated from bead displacements, which represent the force-induced deformation of the substrate under the cell. Estimating the forces from the bead displacements is not easy when the bead density is low or the locations of cellular attachments are unknown. In this study, we propose a Bayesian algorithm by introducing a prior force direction that is based on cellular morphology. We apply the Bayesian framework to synthetic datasets in conditions under which the bead density is low and cellular attachment points are unknown. We demonstrate that the Bayesian algorithm improves accuracy in force estimation compared with the previous algorithms.

1061022 堀川友慈 
Neural Decoding of Visual Dream Contents (視覚的夢内容の神経デコーディング)

Dreaming is a subjective experience during sleep often accompanied by vivid visual contents. Previous research has attempted to link physiological states with dreaming but has not demonstrated how specific visual dream contents are represented in brain activity. The recent advent of machine learning-based analysis has allowed for the decoding of stimulus- and task-induced brain activity patterns to reveal visual contents. Here, we extend this approach to decode spontaneous brain activity associated with dreaming with the assistance by lexical and image databases. We measured the brain activity of sleeping human subjects using fMRI while monitoring sleep stages by EEG. Subjects were awakened when a specific EEG pattern was observed during the sleep-onset (hypnagogic) period. They gave a verbal report on the visual experiences just before awakening and then returned to sleep. This procedure was repeated to collect over 200 reports in each subject. The words describing visual contents were extracted and grouped into 16?26 synsets, synonym sets defined in the English lexical database WordNet, for systematically labeling dream contents. Decoders were trained on fMRI responses to natural images describing each synset, and then tested on sleep data. Pairwise and multilabel decoding revealed that accurate classification, detection, and identification regarding dream contents could be achieved with the higher visual cortex, with semantic preferences of individual areas mirroring known stimulus representation. Decoder outputs, on average, represented reported contents toward the time of awakening, while the individual time courses showed complex evolution. Our results demonstrate that specific dream contents are represented in activity patterns of visual cortical areas, which are shared by stimulus perception. Our method uncovers contents represented by brain activity not induced by stimulus or task, which could provide insights into the functions of dreaming and spontaneous neural events.


1161006 久保 慶伍 
無制約多対多アライメントと2次統計量を用いたオンライン識別学習による発音推定

現在,音声検索といった新語を扱う音声認識を利用したシステムにおいて,新語に正しい発音を付与する自動発音推定の重要性が増している.その理由は音声認識が単語の発音の情報に基づいて音声とその単語の照合を行うことから,辞書に登録されていない新語などを認識可能にするために,その発音の情報が必要となるからである.発音推定手法として現在,データ駆動型の書記素−音素変換(g2p 変換)と,単語とその発音のペアを膨大な Web テキスト内から自動抽出する Web テキストマイニングによる発音獲得がある.本論文では,これらの発音推定手法を強化するための書記素と音素間の新しいアライメント手法と g2p 変換のための新しい学習手法を提案し有効性を確認した. 書記素と音素間のアライメントは発音推定のための事前処理であり,発音推定の性能向上のために正確できめ細かいアライメントが求められる.それを実現するために,市街地距離を導入した無制約多対多アライメントとその拡張手法(n-best Viterbi トレーニングによる学習とコンテキストに基づく正確なアライメント法)を提案する. その提案手法は従来のアライメント手法より正確できめ細かいアライメントを生成する. また,g2p 変換のための学習手法として2次統計量を用いたオンライン識別学習である構造化 AROW と構造化 NAROWを提案した.構造化 AROW は過学習に頑健な二値分類手法である重みベクトルの適応的正則化 (AROW) を g2p 変換用に拡張した手法である.これは現在,最も精度の高いMIRAと呼ばれるオンライン識別学習よりも,誤った発音も含む学習データに対して過学習を起こさずに精度良く学習することができる.また,構造化 NAROWは構造化 AROW が持つハイパーパラメータの設定を改善する. 各提案手法に関して評価実験を行った. まず,拡張された無制約多対多アライメントは,先行研究である joint multigram 手法と比べて,より正確な g2p 変換を実現し, Web テキストマイニングを用いた発音獲得の改善にも寄与した.次に,構造化 NAROW は様々な g2p タスクにおいて現在,最も精度の高い g2p 変換である MIRA を有意な差で改善した.


1161016 大倉 史生
Imaging and Rendering Framework for Photorealistic Mixed-Reality World Exploration

 The exploration of the real world in a virtual simulation has become one of the most important applications of augmented virtuality (AV) in accordance with the popularization of Virtual Globe applications (e.g., Google Earth), where AV is one aspect of mixed reality (MR) research fields according to the reality-virtuality continuum. In certain applications that allow an interactive virtual exploration of the real world, virtual objects can be superimposed for the visualization of disaster areas or non-existent buildings. In such applications, the virtual objects have to be rendered frame by frame. Real-time rendering approaches have been studied for photometric registration between real and virtual objects in augmented reality, and have become one of the most important research fields in the area of MR. The goal of these researches is to achieve the same quality as offline rendering, but this has yet to be achieved. This study proposes a framework for acquiring real-world scenes, and rendering both the real world and virtual worlds for photorealistic MR-world exploration. We first propose full spherical aerial imaging methods to acquire real-world scenes effectively and accurately using an unmanned airship and omnidirectional cameras. To achieve the photorealistic superimposition of virtual objects onto a virtualized real-world, we propose a rendering approach that combines the offline rendering of virtual objects with image-based rendering. Using the proposed imaging and rendering frameworks either fully or partly, various MR applications can be developed. Some examples of such MR applications based on the proposed imaging and rendering frameworks are also demonstrated.


1061008 粂 秀行
Camera Pose Estimation for an Image Sequence with External References

 Structure-from-Motion (SfM) is one of key technologies developed in computer vision field, and SfM has been used for many applications such as three-dimensional reconstruction, robot navigation, and augmented reality. The most significant problem in SfM is accumulation of estimation errors in a long image sequence. Although many kinds of methods that reduce accumulative errors have been proposed, SfM methods essentially cannot be free from accumulative errors unless some external references (e.g., GPS, aerial images, and feature landmarks) are given. In order to treat various scenes for which appropriate external references are not unique, this thesis proposes camera pose estimation methods employing the following three types of references: (1) GPS, (2) aerial images, and (3) a 3D point database created by SfM. GPS and aerial images are already available for most outdoor scenes in the world. To reduce accumulative errors of SfM, we propose bundle adjustment (BA) based methods which can globally optimize camera poses using GPS and aerial images. Some applications of robot navigation and augmented reality require estimating camera poses along a previously taken route. For these applications, we propose an online camera pose estimation method using a 3D point database created by SfM from previously captured images. As for the method using GPS, the extended BA methods that fuse SfM and GPS data have been already proposed and they work finely if GPS data are accurately acquired. However, the accuracy of estimated camera position largely depends on the confidence of GPS positioning data because they do not consider the GPS positioning confidence. In order to solve this problem, we add weighting coefficients depending on the GPS positioning confidence to an energy function for extended BA. As for the method using aerial images, there have been no existing methods that use aerial images as external references in SfM. We propose a new pipeline of SfM that uses feature matches between ground-view and aerial images. In order to find good matches from unreliable matches, we newly propose RANSAC based outlier elimination methods in both feature matching and BA stages. As for the method using 3D point database created by SfM, we estimate camera poses online from the 2D positions of feature points in the current image and their 3D positions obtained from the database. The challenge here is how to accurately obtain the 3D-2D correspondences. To this end, the proposed method identifies the database image that is most similar to the current image by considering both topological information and image features. The usefulness of the proposed methods has been quantitatively confirmed with experiments using data obtained in real environments.


1161007 欅 惇志
A Study on Effective and Efficient XML Element Retrieval Considering Document Updates

Extensible Markup Language (XML) is a markup language for structured documents that has become the de facto format for data exchange. The data formats of many applications, such as Wikipedia articles and office documents, are defined as XML formats. A large number of XML documents are available on the Web, and we expect this trend to continue in the future.

Search system users have to find information they need out by themselves, because most of existing search systems return a list of documents as search results. It takes a large effort to find it out from long-length documents. In addition, there is a possibility that users cannot find useful information nevertheless they spent long time on the documents. This information seeking process is much cost in information retrieval. On the other hand, users need not to find information they need out by themselves because XML element search systems return a list of elements which satisfy users' information needs. Therefore, the framework of an XML element search system can reduce the cost in information retrieval, which is the reason why XML element retrieval techniques are useful and worth working on.

There are two main streams for researches of XML element retrieval techniques, i.e., 1) attaining effective search for satisfying accurate information retrieval, and 2) attaining efficient search for fast query processing. In order to satisfy 1), we proposed a scoring method to identify informative XML elements and a reconstruction method of search results to identify the most appropriate granularity of XML elements as search results. Our experimental evaluations showed our proposed methods overwhelmed existing methods in search accuracy.

Then, we also try to handle document updates of an XML search system. This is because document updates need to be managed when we come to think of a practical use of search systems. If document updates are not handled in a search system, users cannot obtain appropriate search results, which reduces the usefulness of the search system. We propose to extend a function of incremental updates of indices to general XML element retrieval systems, with filters to reduce the update cost by eliminating unimportant elements and terms. Moreover, we apply a method for integrating path expression which estimates accurate global weights in term calculation. We confirmed the proposed methods update indices in short time without a drop in search accuracy.

As an output of these researches, we developed a practical XML element search system which achieves accurate search and fast query processing with satisfying immediate reflection of document updates. However, there still is a gap between a practical XML element search system and a practical Web search system. To fill the gap, we try to apapt (XML) element retrieval techniques to HTML documents.


1261027 Tanvir Ahmed
Techniques to Reduce the Overhead and to Improve the Robustness in a Fault Tolerant Reconfigurable Architecture

Nowadays, fault tolerance has been playing a progressively important role in covering increasing soft/hard error rates in electronic devices that accompany the advances of process technologies. Research shows that wear-out faults have a gradual onset, starting with a temporal/transient fault and then eventually leading to a permanent fault. Error detection is thus a required function to maintain execution correctness. Currently, however, many highly dependable methods to cover permanent faults are commonly over-designed by using very frequent checking, due to lack of awareness of the fault possibility in circuits used for the pending executions. In this dissertation, to address those issues, a technique has been proposed to add check instructions selectively on the data-path, where a metric has been introduced for permanent defects, as operation defective probability (ODP), to quantitatively instruct the check operations being placed only at critical positions. By using this selective checking approach, I can achieve a near-100% dependability by having about 53% less check operations, as compared to the ideal reliable method, which performs exhaustive checks to guarantee a zero-error propagation. By this means, I am able to reduce 21.7% power consumption by avoiding the non-critical checking inside the over-designed approach. Further, by additionally taking the data importance into account, extra energy savings is possible from the current over-designed fault tolerable system. Partial redundancy is a well used method to cover single event effects~(SEEs) on critical data while leaving less important data unprotected. Under a low SEE rate, the method can provide a good cost-effective fault tolerance, while many silent data corruptions~(SDCs) may occur under a high fault rate due to incomplete fault coverage. Thus, a system-level approach is proposed to additionally cover SDCs in a partial redundancy by a light-weighted error prediction. Simulation results under a stress radiation test condition show that with an average 8% cost in energy consumption, which can reduce the SDC rate from 12% to 0.37%, for the work loads those have been studied.


0761204 塚本 悟司
アンテナ指向性の周期的な可変による単一 RF回路でのダイバーシチ受信の研究

国内のスマートフォンや携帯電話の普及率は今や 90%を超え,無線通信の利用が一般化するにつれて利用者は常に通信可能である事を当然と考えるようになった.また,省エネルギーや利便性向上のために無線センサや RFタグなどの超小型無線デバイスや無線通信機能を有する機器も年々増加している.しかし,無線通信では常時安定した通信を行うのは難しく,マルチパスによる干渉や受信信号強度の低下によって伝送速度や接続性が大きく低下することがある. マルチパスに起因する干渉は信号処理による等化技術の進歩により,その影響を軽減することが可能となったが,受信信号強度自体の低下による影響は避けられない.ホ大比合成ダイバーシチはこれに対して有効な手段であるが,小型無線端末では高周波回路( RF回路)の規模増加によるコストや消費電力の増加が問題となる.一方,単一 RFでのダイバーシチが実現できる選択ダイバーシチは回路規模の点では有利だが,受信ブランチの不適切な選択により劣化が生じる懸念がある.また,近年多くの無線システムに採用されている OFDM(orthogonal frequency division multiplexing)方式は,マルチパスによって生じる周波数選択性のフェージングに対しての耐性は高いが,周波数選択性が低いフェージング下での受信信号強度の低下ではやはり劣化が生じてしまう.しかも,OFDMシステムに選択ダイバーシチを適用しようとするとサブキャリアによってホ適ブランチが異なる場合があり,効果が薄くなるという懸念がある. そこで,この受信信号強度低下を軽減する技術として,受信アンテナの指向性を周期的に切り替えることによる単一 RF回路でのダイバーシチ受信方式の検討を行った.簡単な構造で電気的に指向性を可変できるアンテナとして ESPARアンテナに着目し,その指向性を受信シンボル周期と同じ周期で高速に切り替えることで,ダイバーシチ受信を可能にする技術を考案した.小型無線端末に採用の多いシングルキャリア方式の ZigBeeや OFDM方式を採用している無線 LANへの適用を念頭に理論検討やコンピュータシミュレーションを実施し,高速フェージング時にもダイバーシチゲインが得られる事を確認した.


0761030 和田 眞昌
シロイヌナズナゲノムにおける隣接遺伝子の共発現データに基づいたオペロン様遺伝子群の推定に関する研究

生物の遺伝子発現の制御機構は、生命維持を担う一次代謝やそれぞれの生物 固有の物質生産を担う二次代謝を調節する要因の一つである。すなわち生存の うえで重要なシステムであるタンパク質の生成の初期段階にあり、外部環境な どに適応するための生体の制御機構でもある。植物の二次代謝物は人間社会に おいても薬品や健康食品に利用されており、この経路に関わる遺伝子の発現制 御を理解することは最重要課題である。そのため、植物の二次代謝に関わる制 御機構は長年にわたり研究対象とされてきた。近年の研究で、微生物の発現制 御機構であるオペロンと類似した遺伝子発現機構が、植物の二次代謝経路に関 わる遺伝子について報告されている。ゲノムプロジェクトによりモデル植物シ ロイヌナズナのゲノム解析が完了したことによって、世界中の研究者により採 取されたシロイヌナズナ全遺伝子の膨大な発現データがビッグデータとして公 開されている。そこで、本研究ではシロイヌナズナの全遺伝子を対象として、 公開されている遺伝子発現データを活用し、オペロン様遺伝子群を推定する方 法を提案した。まず遺伝子発現群を特定するために全遺伝子の遺伝子対遺伝子 の発現相関データベースを作った。次に、このデータベースにおける遺伝子発 現が、過去の研究に報告される発現傾向と同様であることを確認した。さらに 統計手法により、遺伝子群の大きさの閾値を決定して、オペロン様遺伝子群の 推定を行う方法を開発した。これにより、シロイヌナズナには、統計的に有意 なオペロン様遺伝子群の個数を100 個と推定した。この方法により予測された 遺伝子群について、現在報告されている植物遺伝子の機能アノテーションを用 い、これらが機能的にオペロン様遺伝子群と同様の機能を持つことが確認され た。

1161005 金城 健
線形化マルコフゲーム理論によるロバスト制御

自動制御ロボットが自身の環境の中で最適に振る舞う制御則を求める計算論的枠組みとして,最適制御やモデルベース強化学習が一般的に用いられる.しかしながら,連続行動空間において最適制御則を求める際には,非線形な Hamilton-Jacobi-Bellman (HJB) 方程式を解くことが障害となっている.  近年,Linearly solvable Markov decision process(LMDP) と呼ばれる,コスト関数と制御入力がダイナミクスに及ぼす影響に対して制約を置くことで,非線形なBellman 方程式を線形に変換する新たなマルコフ決定過程の枠組みが提案された.LMDPを実機のロボットの制御に適用するためには,精密な制御対象の環境ダイナミクスが既知でなければならず,事前にそれを保持することは容易ではない.本研究の先行研究ではこの問題点を解決するために状態と行動の時系列データから制御対象の環境ダイナミクスを推定し,推定されたダイナミクスをLMDPに用いる手法を提案した.先行研究ではシミュレーションによる実験でのみの評価であったことから,本研究では車輪型ロボットのSpring Dogを用いた実験を行い提案手法の実機における実現性を確かめた.  また,提案手法は推定精度が悪化するにつれて獲得した制御則の性能が劣化することが先行研究により明らかとなっている.この問題の一つの解決策として,推定された環境ダイナミクスの予測誤差が存在しても制御性を余り損なわないロバストな制御則の導入が考えられる.ロバストな制御則は連続時間系ではHamilton-Jacobi-Issacs(HJI)方程式を,離散時間系ではBellman-Issacs方程式を解くことで得られる.近年,LMDPの拡張としてLinearly Markov Games (LMG)と呼ばれる枠組みが提案された.LMG において非線形なHJI方程式およびBellman-Issacs方程式は厳密に線形化される. LMGはロバストな制御則の獲得手法として好ましく,先行研究の問題点の解決策として有効であると期待される.しかしながら,LMG のロバスト性については十分に議論されていないことから,本研究では予測誤差を持つようなモデルに対して LMG を適用し,ロバスト性について研究し先行研究の改善を行った.


1161030 Noppawat Chaisamran
Protecting IP Telephony against SPIT and SIP Flooding Attacks

The global communication market is rapidly moving toward IP (Internet Protocol) telephony. Like other IP-based applications, it is vulnerable to several attacks. Then, security concerns become more important for users and service providers. In this dissertation, I propose a real-time attack detection system that protects an IP telephony against Spam over Internet Telephony (SPIT) and Session Initiation Protocol (SIP) flooding attacks. It consists of three main contributions. First, I propose a trust-based SPIT detection based on calling behavior and human relationships. A call duration and its direction as well as a calling ratio of each user are used to calculate a trust value. This trust value is automatically adjustable according to the call characteristics in order to keep track of a current user's behavior and avoid a bias in trust value assignment. Second, I present an anomaly-based SIP flooding attack detection system. Three statistical algorithms are proposed to analyze an incoming traffic to a SIP server: an application of Tanimoto Distance, an adaptive threshold, and a Momentum Oscillation Indicator. Due to a stateless and a low computation cost of these algorithms, the proposed system can classify traffic in nearly real-time that is suitable for a IP telephony system. Lastly, I reduce false positive alarms of the flooding attack detection by using a trust filtering. A reliable trust value is calculated through the call activities and the human behavior of each user. Trust value of suspicious callers will be checked before raising any alarm. I use the comprehensive synthetic datasets containing various malicious traffic patterns to validate the effectiveness of the proposed system. The results show that it accurately identified attacks and has the flexibility to deal with many types of attack patterns with a low false positive rate.


1161013 水本 旭洋
効率の よいコンテキストアウェアシステム実現ための最適化アルゴリズムに関する研究

センサやモバイルデバイスから収集した情報を基に実世界の現在の状況(コンテキスト)を認識し,コンテキストの変化に適応するように動作するコンテキストアウェアシステムは,ユーザの快適さ,消費される時間やエネルギーなどの点で最適にサービスを提供することが望まれる.しかしながら,既存研究ではコンテキストアウェアシステムにおけるサービスの効率や最適性の実現を目的としたものはほとんど存在しない.本研究では,災害時の医療支援や家庭での省エネ支援という近年関心が高まっている2つの分野において効率の良いコンテキストアウェアシステムを実現するために,それぞれのシステムで提供されるサービスを最適化問題として定式化し,それを解くアルゴリズムを提案する.災害時の医療支援に対して,効率的なコンテキストアウェアシステムを実現するために,生体センサにより実時間で傷病者の容態が認識可能な電子トリアージタグを利用し,傷病者の容態変化や病床数の変化などの被災地のコンテキストに自動適応して搬送計画を行う手法を提案する.本手法は,対象とする問題がNP困難問題であることから,実時間で搬送計画が行えるように,傷病者が命を取りとめることが可能な搬送限界時刻が早い順番で救急車を割り当てるようなヒューリスティックなアルゴリズムを用いる.また,家庭での省エネ支援に対して,効率的なコンテキストアウェアシステムを実現するために,最小の消費電力量でスマートスペースをユーザの好みのコンテキストに遷移するような家電を自動で操作する手法を提案する.本手法では,目的のコンテキストに遷移させる問題を最短経路問題として定式化し,A*アルゴリズムを用いて最適化を行う.しかしながら,対象とする問題は各エッジとコストがあらかじめ与えられていないため,そのままA*アルゴリズムを適用できない.そこで,シミュレーションにより各エッジの存在とコストを動的に探索し,最短コストの経路を求めるような手法により解決を行う.両分野に対してそれぞれ提案した最適化アルゴリズムが既存の手法と比べて,医療支援では救命率の向上を,家庭での省エネ支援では消費電力量の削減を行えることを確認した.


0961009 笠井則充
判別モデルに目視評価を組合せたfault-prone モジュール判別手法

本論文では,ソフトウェアモジュールに対するfault-prone判別を,従来の判別モデルに目視評価を組み合わせて行う方法を提案する.fault-prone判別とは,対象とするソフトウェアモジュールに不具合(fault)が含まれる可能性が,ある基準以上であるか(fault-prone であるか)どうかを推定する手法である.判別モデルでは,ソースコードやその更新履歴の特性値群が,判別のための入力データとなる.ただし,ソースコードに記載されたコメントの不備や例外処理の不備,プラットフォームに依存した実装といった不具合の存在や兆候をそれら特性値で捉えることは困難であり,モデルだけで判別精度を高めることには限界があるとの指摘がある.一方,目視評価には,多くの時間・工数が必要であり,実用規模のソフトウェアにおいて全モジュールを評価することは現実的ではない.そこで,提案法では,受け入れ検査工程を対象に,従来の判別モデルによる評価結果に基づいて目視評価すべきモジュールとその評価順序を決定することで,目視評価のコストを抑えつつ,より高精度なfault-prone判別を目指すこととした. まず,従来の判別モデルの得点と目視による評価得点の和をfault-prone判別得点とすることで,fault-prone判別の精度が向上することを実験により確かめた.具体的には,判別モデルをサポートベクタマシン,ソースコード行数,ランダムとし,判別モデルにより得られた得点と次の4つの基準により選んだモジュール(全モジュールのα%)の目視評価得点に荷重βを乗じた値の和をfault-prone判別得点とする.すなわち判別モデルによって得られた得点の,(1)昇順,(2)降順,(3)中間値から順に一つ大きい値,一つ小さい値,二つ大きい値,…の順,(4)最大値,最小値,2番目に大きい値,2番目に小さい値, 3番目に大きい値…の順で,全体のモジュールのα%を選ぶ.いずれの組合せにおいても,適切なα,βを与えることにより,目視評価を行うことによって判別モデル単体よりも高精度でfault-prone モジュールを判別することが確認された. 次に,目視評価のコストを抑えることを目的として目視評価得点のスコアリング方法を開発した.具体的には,規模の小さいモジュールにおいて目視評価の観点を省略することにより,判別精度を維持しつつ目視評価のコストを小さくできるよう,目視評価得点のスコアリング方法を考案し,試行した.目視評価するモジュールの割合であるα%を事前に決定せずに評価した場合でも,判別精度が大きくなることがわかった.また,αが100%の場合と75%の場合とで同程度の判別精度が得られることがわかった.


1261203 塚本英邦
学習者のモチベーション解析に基づくプログラミング教材の改善

本論文では,学習者のモチベーション維持・向上を目的とした,プログラミング教材の改善法を提案する.プログラミングの学習では,プログラミング言語だけでなく,アルゴリズムやプログラミング環境についても理解し,それらを活用することが求められる.習得までには相応の時間と期間が必要となるが,特に,情報通信を主専攻としない教育機関では,習得までの期間,学習者のモチベーションを維持・向上させることが重要な課題となっている.提案法は,学習者の専攻分野や教授者の経験・知見の差異に影響されることなく,プログラミング教材の漸次的・継続的な改善を目指すものである. 提案法では,まず,受講生対してSIEM(Systematical Information Education Method)アセスメント尺度に関するアンケートを実施し,その回答結果に基づいて,モチベーションレベルを4つの因子(注意(Attention),関連性(Relevance),自信(Confidence),満足感(Satisfaction))に分けて測定する新たな尺度を開発した.これら4つの因子は,J. M. Kellerが提唱する「ARCS動機付けモデル」に基づくものである.モチベーションを4つの因子に分け,教育プロセスの進行に伴う遷移を数値化することで,教材改善に役立つより詳細な情報を提供することができる.測定の基となる新たな尺度は,13のプログラミング演習等における約1700件の学習者へのアンケートによる適用実験の結果に基づき検証した. 次に,モチベーションレベルの測定結果に基づき,「ARCS動機付けモデル」で定義されている「動機づけ方略見本」を用いてプログラミング教材の改善を行う.具体的には,教育プロセスの進行に伴いレベルが有意に変化しているモチベーション因子,および,その下位カテゴリーを特定し,それぞれの下位カテゴリーに定義された2 - 5個の方略見本の中からモチベーション向上に有効な方略を適用して教材の具体的な改善要素を提示する.提示された5つの改善要素によって改善を施してしたプログラミング教材によってプログラミング教育を試行してモチベーションを測定し,3つの改善要素において教材改善の効果が認められた.


1161002 池田 俊
ゲノム配列に基づく生物多様性に関するバイオインフォマティクス

 生物は構造や機能で多くの共通性を持ちながら、地球上のあらゆる環境に適応し生息している。生物の多様性は生物が獲得してきた多彩な特徴であるといえる。生物の多様性が構築されていく経緯を明らかにすることは生物進化の解明だけでなく、生物利用としても意義を持つ。本論文では、バイオインフォマティクスの技術を用いた生物の代謝とゲノムの多様性の原因となるメカニズムの解析を行った。まず、酵素タンパク質の多様性として、生物が保持する酵素の代謝反応クラスに関するデータベースを構築し、酵素タンパク質のアミノ酸配列のパターンを一括学習型自己組織化マップによってクラスタリングした。その酵素タンパク質配列のクラスタリング結果が二次代謝物グループに基づいて分類されるだけでなく、各酵素グループの機能や各酵素グループの祖先関係を反映することを示した。次に、ゲノムの多様性が生まれるメカニズムについて環境圧の影響を基に統計解析を行った。環境が生物に対して与える影響を明らかにするために、各原核生物のゲノム指標として、ゲノムの遺伝暗号であるコドンを用いた指標を開発した。そして、その指標を基に主成分分析を行った結果がゲノムの特徴を反映することを示し、原核生物において、新規コドン指標と生育環境条件を用いた統計検定を行った。その結果、ゲノムの多様性の原因にについて、第一にATP合成効率、第二に温度、第三に生物のコドンを使用したシステムの影響があることを結論づけた。


1161010 福嶋 誠
State-Space Methods for Reconstructing Neuronal Current Sources (状態空間法による脳内電流源の推定)

Elucidating mechanisms of how functionally specialized brain regions dynamically interact has recently received attention in the neuroimaging community. Such dynamic integration of functional brain regions can be investigated by Magnetoencephalography (MEG) and Electroencephalography (EEG). To discover functional brain networks from MEG/EEG sensor measurements, it is indispensable to properly reconstruct neuronal current sources from these data and identify directed interactions (i.e., effective connectivity) between the current sources. State-space approaches for MEG/EEG source reconstruction potentially provide ways to solve the above estimation problems. The state-space framework can incorporate a priori knowledge on neuronal current dynamics into the dynamic model of current sources. Imposing realistic priors on the source dynamics allows reconstructing current sources from MEG/EEG data more accurately. The richness of the prior assumptions also contributes to identification of functional brain networks. This can be achieved by first introducing model parameters of the source interactions based on prior knowledge, and then estimating these parameters from the measurements. In this thesis, to realize accurate source reconstruction and discovery of functional brain networks, two novel extensions on state-space methods are applied. First, a limitation of previous state-space methods in reconstructing spatially focal current sources has been resolved. By replacing spatially homogeneous dynamic source model in existing methods to spatially inhomogeneous one, focal current sources are successfully reconstructed under the state-space framework for the first time. Second, inference of functional brain networks has became available by incorporating long-range directed interactions into the dynamic source model, under prior knowledge on anatomical brain connectivity. The new state-space method extends previous dynamic models in which spatially local (or self) source interactions are only assumed and from which the functional networks cannot be identified.


1061019 布江田 友理
血液透析における血管内容積変動のモデルを用いた要観察な患者抽出法

腎臓は浸透圧調節や体液調節、ホルモン分泌調節など生体にとって重要な臓器である。 代謝産物の排泄は腎臓の糸球体で行われ、糸球体毛細血管の内皮細胞、基底膜、上皮細胞 が濾過膜として働いている。そこで血管内皮細胞培養系を使用し、物質の透過性について 調査した。この結果、動脈硬化や高血圧などに効果がある長鎖脂肪酸が血管内皮細胞の透 過性を促進することが分かった。 また、腎機能不全では体液調節や代謝産物の排泄ができないために、透析療法が必要不 可欠である。血液透析療法は拡散によって老廃物の除去と電解質調節を行い、限外濾過に よって過剰容積を除去して、体液調節を行う。生体は限外濾過に伴い血管内容積が減少す ると、血圧を維持するために血管外から血管内へ水分を引き込む。このバランスに不均衡 が生じると、血液透析患者では透析性低血圧などの合併症が生じ、これは合併症の約30% を占めていると言われている。そのため、血液透析療法中、血管内容積変動の把握は重要 である。血液透析療法中に生じる血管内容積変動は限外濾過と血管外から血管内への容積 移動が関係していることから、容積変化に着目して数理モデルを考えた。血管外から血管 内へ移行する容積は血管外に蓄積された容積変動に関係するため、血管外に蓄積された容 積変動をロジスティック方程式を用いて表現した。限外濾過量は、単位時間当たりの限外 濾過量を使用して求めた。この結果、提案したモデルと血管内容積計測値との相関は高く、 血管内容積変動をモデル化でき、血管外に蓄積された容積変動はロジスティック方程式が 適合することが分かった。さらに、提案したモデルと血管内容積計測値との相関係数を指 標として、透析性低血圧のために薬剤投与を行った症例と薬剤投与や補液などの外乱のな い症例との関係を調べた。血液透析療法開始30 分間の容積変動とモデルとの相関係数が 0.95 を境界域として、透析開始後初期時に観察が必要な患者を抽出できる可能性を示した。 また、提案したモデルから血管外最大過剰容積が推定できた。現在、透析患者は基準体重 を設定し、基準体重からの増加量を過剰容積として除水する。推定した血管外最大過剰容 積と基準体重からの増加量が大きく異なる場合、透析条件の再設定が必要であると思われ、 モデルのパラメータである血管外最大過剰容積を基準体重設定の新しい指標として、提案 した。


1161014 IGOR DE SOUZA ALMEIDA
Co-located Augmented Reality Mediated Communication

Augmented Reality (AR) has recently grown out being a new way to interact with virtual contents to become a way to enhance communication. This new found niche of AR, referred in this work as Augmented Reality Mediated Communication (ARMC), can be defined as any form of active communication between two or more persons that benefits from the assistance of virtual imagery displayed in their real world view. Two particularities of ARMC serve as motivation for this thesis: human factors are often overlooked in the conception of ARMC systems, and the fact that there are considerably fewer works focusing on co-located ARMC than on the remote case. In this thesis, two prototypes systems were developed. The first is an intermediate experimental work, named HANDY, targeting remote ARMC. It proposes an AR video conferencing in which a user is able to virtually “reach out” to another’s real world by using a two cameras setup. This system evaluated the effect of ARMC on the human factor Social Presence. This work represents a stepping stone towards the co-located ARMC research through which it was possible to empirically analyze the trivial case (remote) while experimenting with the evaluation of human factors. The second prototype, and the main work in this thesis, is a new ARMC approach to co-located meeting support for small audiences. The system, named Meetsu, consists of virtual icons and text annotations (containing meeting participants' comments) displayed on a live video feed of the meeting room. It was targeted as a method to promote willingness to communicate (WTC) among meeting participants, arguably the first work to attempt it. The experiments with Meetsu measured the levels of WTC in two distinct groups for a period of time, before and after using the system, and compared the use of AR and Non-AR views as display method.


1261017 宮ア 亮一
Musical-Noise-Free Speech Enhancement Based on Higher-Order Statistics Pursuit

In this dissertation, I propose a new speech enhancement theory for hearing aid and video conference systems, where the output speech quality of nonlinear signal processing is controlled using higher-order statistics. In these systems, since interference signals and noise deteriorate the quality of a user’s input speech, it is desirable to develop a digital signal processing technique to clean the microphone signal before it is stored. In order to remove background noise, there have been many studies on noise reduction methods that have high noise reduction performance. However, the reduction of noise spectra often introduces an artificial distortion in the residual noise, which is a well-known phenomenon so-called musical noise, leading to a serious deterioration of sound quality. In this study, first, I theoretically clarify that iterative spectral subtraction with a specific parameter generates almost no musical noise even with high noise reduction performance. Based on the fact, I propose a musical-noise-free theory for single-channel speech enhancement using iterative nonlinear signal processing. In the proposed theory, the fixed point in kurtosis yields the no-musical-noise state; we call this ``musical-noise-free condition.’’ In addition, I mathematically derive the optimal internal parameter settings to satisfy the musical-noise-free condition based on higher-order statistics pursuit. Next, I propose a new iterative blind signal extraction method integrating blind noise estimation and iterative noise reduction for addressing reduction of nonstationary noise. This method includes a dynamic estimation of the noise power spectral density based on independent component analysis and multi-channel Wiener filtering, which can provide effective reduction even in the case that noise has time-varying properties. From the experimental evaluation, it is asserted that the proposed methods are advantageous to the conventional speech enhancement methods in terms of total sound quality.


1161028 GEMALYN DACILLO ABRAJANO
Rainfall Attenuation in Microwave Mesh Networks

Microwave mesh networks with frequencies from 10 GHz are affected mainly by rainfall attenuation. This effect of rain on the propagation of the microwave signals has been extensively studied in the past to minimize the effects on the communication links. This research studied how route diversity can be used to lessen the effect of rain attenuation on the delivery of information of mesh networks. Route diversity is the availability of more than one physical path from the source of information to the destination. This study looks into the links' orientation and angular separation from each other in implementing the route diversity. Network configurations where simulated using real rainfall data to see the differences in attenuation for links oriented in different directions. The results showed significant gain for the route diversity.

The next aim of this study is to determine the location and intensity of the rainfall field from the attenuation of a mesh network. Because of the links' susceptibility to rain, it has been suggested in the past that a rainfall sensing system can be built using microwave networks. The information on rainfall attenuation can be used to detect and reconstruct the rainfall field without using other weather sensors. However, the resolution of the link attenuation data is not enough for detecting the sporadic rain. In this study, we propose an efficient use of compressed sensing algorithm for improving the resolution. The proposed method can identify intense rainfall rates like that of "guerilla rain", which are of interest because they can cause disasters like landslides and flash floods. The links' rainfall attenuation can be used as the input to a rain sensing system. This system can complement existing weather sensing systems and act as standalone rainfall sensor in areas where traditional weather sensors are not available.


1161012 間島 慶
Neural Decoding of Electrocorticographic signals

Over the last decade, neural decoding technology based on machine learning has been developed and enabled us to extract fine information on visual experiences and motor commands from measured neural signals, which is becoming a powerful tool for revealing neural representations and BMI application. To extract information with high predictive performance, neural recording methods that provide high spatiotemporal resolution and signal stability are required. A promising candidate is electrocorticogram (ECoG), which measures population activity of neurons with electrodes placed on the surface of the brain.

Here, toward high-performance decoding with ECoG, we tested the utility of ECoG systems in animal and human studies, and improved techniques to extract information from ECoG data. In chapter 2, the signal stability of ECoG responses recorded via a newly developed high-density mesh electrode array was tested. Collaborators applied it to the visual cortex in rats and this thesis demonstrates above-chance, generalized decoding performance for simple visual stimulation, using six hours of continuous data. In chapter 3, by applying decoding analysis to simultaneously recorded ECoG, LFP, and MUA signals from the monkey IT cortex, extractable information on visually presented objects was compared. The resultant decoding performance with ECoG was high and comparable with LFP and MUA. In chapter 4, ECoG was used to investigate how face-selective regions and written word- selective regions are distributed on the human cortex, which is considered a challenging task with fMRI. Results reveal that there exist multiple, separate face- and written word-selective regions in the human cortex. In chapter 5, using ECoG responses from human patients when they viewed objects, efficient input signal features for decoding analysis were explored. Spectral powers, phases and temporal correlations of ECoG signals were used as input features, and the decoding performances were compared. Results show the performance using temporal correlations between ECoG electrodes is higher than using spectral powers and phases in individual electrodes.

Those results suggest that the combination of ECoG recordings and neural decoding techniques is a powerful approach for extracting neural information, and we can considerably improve a decoder’s predictive performance by using signal features that take into account fine temporal patterns in ECoG signals.


1161018 小木曽 智信
日本語通時コーパスのための形態論情報アノテーションの研究

近年,コーパスを用いた日本語研究が盛んになり,国立国語研究所においては,日本語史研究のための通時コーパスを構築する準備が進められている.通時コーパスには,現代語のコーパスと同様の形態論情報を付与することが必要とされているが,従来は歴史的な日本語資料に十分な精度で形態素解析を施すことができず,形態論情報のアノテーションは困難であった.

このような中,本研究は,日本語通時コーパスのための形態論情報アノテーションを実現するために自然言語処理技術を応用して,次の貢献を行った.

  1. 古文の形態素解析を実現するための言語資源として,新たに辞書と学習用のコーパスを整備し,統計的機械学習にもとづく形態素解析技術を用いて,中古和文と近代文語文について実用的な精度(見出し語認定のF値で0.96以上)が得られる形態素解析システムを実現した.
  2. 上記の言語資源と通時コーパス自体の整備のために,辞書の見出し語とコーパスの出現形とを関連付けながら形態論情報の修正作業を行うことのできるデータベースシステム(国語研究所「形態論情報データベース」)を構築し,通時コーパス整備の基盤を整えた.
  3. 通時コーパスに収録される多様なテキストに対して高い精度で形態論情報のアノテーションを行う方法を検討し,近世口語文,和漢混淆文,旧仮名遣いの口語文について,実際に形態論情報のアノテーションを行った.
  4. 上記の形態素解析技術や形態論情報付きの通時コーパスを人文科学系の研究者に使いやすい形で提供するために,新たなツールの作成・既存のツールの適用を行った.
以上により,通時コーパス構築の基盤を構築し,通時コーパスを用いた日本語史研究のための環境を整備した.

A study on Morphological Annotation for the Japanese Diachronic Corpus

Toshinobu OGISO (1161018)

Recently, corpus-based study of Japanese language has become popular, and a diachronic corpus of Japanese is being developed at the National Institute for Japanese Language and Linguistics (NINJAL) to study history of Japanese language. In order to construct a richly annotated diachronic corpus of Japanese, morphological analysis of historical Japanese text is required. However, morphological analysis of old Japanese texts with adequate accuracy was impossible by conventional means, and annotation of diachronic corpora with morphological information was difficult using existing technology.

Given this situation, this study applied natural language processing technology to carry out the annotation of morphological information for the diachronic corpus of Japanese, and made contributions as below.

  1. Dictionaries and corpora of historical Japanese text were newly created as language resources to carry out the morphological analysis of historical Japanese. Using these resources and a morphological analyzer based on statistical machine learning, morphological analyses of historical Japanese texts in the literary style of the Meiji era and morphological analysis of literature of the Heian era were achieved with high accuracy (over 96% at lemmatization level).
  2. For compilation and maintenance of the language resources mentioned above and the diachronic corpus itself, a database system (NINJAL morphological information database) was developed. The database system makes it possible to modify annotations in the diachronic corpus and in related dictionary entries, while maintaining consistency between the two.
  3. For a variety of texts included in a diachronic corpus, methods for performing annotation of morphological information with high accuracy were studied, and actual annotation was conducted.
  4. For researchers of Japanese language and scholars of humanities, some newly created tools and existing software were applied to the diachronic corpus in order to make it possible to use the morphological analysis system and the annotated diachronic corpora easily.
In this way, a basis for the compilation of diachronic corpora was constructed and an environment for studying the history of the Japanese language using diachronic corpora was provided.


1161009 林部祐太

Japanese Predicate Argument Structure Analysis Based on Positional Relations between Predicates and Arguments(述語と項の位置関係に基づく日本語述語項構造解析)

述語項構造解析の目的は,述語とそれらの項を文の意味的な構成単位として, 文章から「誰が何をどうした」という意味的な関係を抽出することである.これ は,機械翻訳や自動要約などの自然言語処理の応用において重要なタスクの 1 つ である.

一般に,項は述語に近いところにあるという特性がある.そのため,従来の述 語項構造解析の研究では,候補を述語との位置関係でグループ分けし,あらかじ め求めておいたグループ間の優先順序に従って正解項を探索してきた.しかしな がら,その方法には異なるグループに属する候補同士の比較ができないという問 題がある.

そこで,異なるグループごとに最尤候補を選出し,それらの中から最終 的な出力を決めるモデルを提案する.このモデルは優先度の高いグループに属す る候補以外も参照することによって最終的な決定を行うことができ,全体的な最 適化が可能である.

実験では,提案手法は優先順序に従う解析よりも精度が向上することを確認し た.そして,述語項構造解析の精度を向上させるために必要な今後の課題につい て,述語の種類に応じて分析し議論する.


情報科学研究科 副専攻長