平成23年度 情報科学研究科 博士学位論文発表梗概


0761025 堀 磨伊也
立体映像の生成と慣性力の再現によるテレプレゼンスにおける臨場感の向上に関する研究

 実画像を用いて遠隔地の情景を提示し,その場にいるような没入感を与えるテレプレゼンスはビデオ会議をはじめとして,医療,教育,エンターテインメントなどの分野に応用が期待されている.テレプレゼンスを実現する際に全方位カメラで撮影された動画像を用いることで自由な視線変更を実現することが可能であるが,臨場感を現実環境に近づけるためには更なる工夫が求められている.本研究では,テレプレゼンスにおける臨場感の向上を目的とし,提示映像の立体視化および撮影時の運動再現を実現する.

 本発表では,まず本研究の入力として必要な,色調が統一された動物体の存在しない全天球画像データベースを作成する手法について述べる.ロバスト推定による動物体領域の抽出とヒストグラムを用いた線形濃度変換の処理を領域分割しながら再帰的に繰り返すことで動物体候補領域の絞込みと段階的な色調統一を実現する.

 次に,提示映像の立体視化のために,実環境で取得された全天球画像データベースからステレオ画像を生成する手法について述べる.提案手法では,自由視点画像生成技術を両眼に適用することにより,任意視点のステレオ画像を生成し,テレプレゼンス体験時に自由な視点移動を実現する.本発表では,自由視点画像生成に必要とされる光線情報を光線の尤もらしさに基づくペナルティ関数を用いて全天球画像データベースから自動的に選択し,精度の良いステレオ画像の生成が可能であることを示す.

 最後に,撮影時における運動として慣性力をテレプレゼンス体験時に再現する手法について述べる.提案手法では,モーションベースの傾斜による重力の分力と没入型ディスプレイに提示する映像による自己運動感覚を併用することにより,従来は実現困難であった低自由度のモーションベースを用いた慣性力の再現を可能とする.


0661005 奥村 元
枯草菌染色体oriC近傍領域のDnaA結合配列による染色体複製の開始制御

 細菌の染色体複製は、複製開始タンパク質であるDnaAが、複製開始点であるoriC領域内のDnaA-box cluster(DBC)に結合することで開始される。ChAP-chip法による枯草菌の染色体全域に渡るDnaAの結合プロファイルの解析から対数増殖期では、枯草菌染色体上のoriC領域外に存在する6箇所のDBCにDnaA分子が安定的に結合しており、その内のいくつかでは、近接遺伝子の転写を制御していることが分かった。また、多くのBacillus属細菌ではDBCは異なる遺伝子上流にみられるが、oriC近傍に存在するという共通点が見出された。本研究ではDBCの新規機能を解明するため、6箇所のDBCを削除した欠損変異株(?6DBC)を作製しその表現型の解析を行った。

蛍光顕微鏡を用いたoriC領域の細胞内局在解析から、?6DBC株では複製開始時期が早まることが明らかになった。さらに、?6DBC株に、spo0J欠損変異を導入した場合、多面的な表現型(複製開始頻度の上昇、核様体および細胞形態の異常、染色体分離阻害、細胞分裂阻害)を示し、著しい増殖阻害が観察された。しかしながら、この二重変異株における細胞増殖阻害は、Spo0Jを欠損時にDnaAを活性化するSojへの自然突然変異(SojT88M)、あるいは欠損により回復することが分かった。一方で、二重変異株の表現型は、プラスミド由来の複製開始システム(oriN)による条件下では全く観察されなかった。さらに、DBC[yydA-yycS]を?6DBC株染色体上の異なる位置(7°, 90°, 200°, 270°, 353°)に挿入した場合、挿入した位置がoriCの近位だと強く、遠位だと弱く複製開始のタイミングが回復した。

以上の結果から、枯草菌染色体上のoriC外に存在するDBCは、過剰なDnaA分子を隔離することで複製開始を負に制御し、Spo0J/Sojと並んで、効率的な複製が可能となるようにDnaA活性を適切に維持する主要なシステムであると考えられる。


0661012 楠屋 陽子
枯草菌RNAポリメレースの細胞内の動態

 近年、ChIP-chip解析によって、mRNA合成酵素であるRNA polymerase (RNAP) の生体内の動態が、細菌から真核生物まで、様々な生物で明らかにされた。RNAPはDNA上の特別な認識配列(プロモーター)に特異的に結合し、その後、ダイナミックに立体構造を変化させ、プロモーターから離脱して、DNA上を進行しつつ、mRNA合成を進める。この移行には、様々な障壁が存在し、RNAPが停滞する。

 大腸菌では、RNAPの停滞に関して、いくつかの異なる原因が報告されている。RNAPがプロモーターに結合したまま離脱しない‘poised RNAP(停滞RNAP)’、promoter-proximal(プロモーター近傍(下流))領域の特定のDNA配列に依存してRNAPが停滞する、‘promoter-proximal paused RNAP(プロモーター近傍停滞RNAP)’、アテニュエーションシグナルと呼ばれる特殊なDNA配列に依存して生じる‘transcription attenuation(転写減衰)’である。これらのRNAP停滞には、RNAPがプロモーターを認識するために必要とされるσ因子と呼ばれるタンパク質や、転写伸長時にRNAPのサブユニットとして機能する転写伸長因子NusAが重要な機能を果たすことが明らかとなっている。

 本研究では、枯草菌におけるRNAPの挙動を、σ因子(σA)、 RNAP(β’ サブユニット)、NusAのゲノム上の分布をChIP-chip解析により明らかにした。枯草菌では、大腸菌と異なり、枯草菌野生型株においては、RNAPの停滞は、限られた遺伝子においてのみ観察され、それらの遺伝子はtranscription attenuationにより転写制御されていることから、枯草菌においてはRNAPの停滞と、transcription attenuationには密接な関係があることが示唆された。さらに、枯草菌遺伝子にはプロモーター近傍の停滞を抑制するメカニズムがあることを想定し、大腸菌で、プロモーター近傍の、RNAP停滞の抑制因子として機能しているGreAの効果を確認した。GreAを不活性化した枯草菌では、多くの遺伝子でRNAPのプロモーター近傍での停滞が観察された。この結果は、枯草菌では、RNAPの停滞は積極的に解消されており、転写伸長因子GreAが、解消に重要な役割を果たしていることを示している。


0861210 Zainal Arief
Fuzzy Modeling for Classification System in Medical Application

Fuzzy logic approaches have been widely used and demonstrated successfully in medical fields as well as in other areas since introduced by Zadeh. The fuzzy classifier is an algorithm that assigns a class label to an object, based on the object description using fuzzy logic. Fuzzy classifier considered all possible input combination for final output determination through its membership which represents the degree of belonging to the output class.

We demonstrated the classification process in medical application using fuzzy classifier. Fuzzy logic is suitable for modeling the system which relies on the subjective and intuitive decision from the experts or physicians. In this thesis, two medical application are demonstrated, the fatigue classification based on eye movement parameters and the cardiac rest period determination for magnetic resonance coronary angiography. Both applications utilized the same concept in determining the parameter for membership function threshold. The results from both applications showed the effectiveness of fuzzy logic approach.

In the first application, we explored how eye movement data respond to fatigue condition due to nine hours learning task. We collected an eye movement data while observing student participants watching a visual stimulus. We classified the fatigue condition of the students based on their eye movement parameters. We also investigated the relationship between the fatigue and the saccadic eye movement parameters. The results showed that the fuzzy classifier can discriminate the fatigue with accuracy of 86.5%.

In the second application, we investigated how the fuzzy classifier determine the cardiac rest period from magnetic resonance coronary angiography based on the normalized cross-correlation value and the normalized frame number of the 4-chamber consecutive frame images of the subject. Furthermore, the fuzzy classifier can model the physician-specific decision in determining the rest period as shown in the experiment results.

The results from the two applications showed that fuzzy logic provides a means for encapsulating the subjective and intuitive decision making in an algorithm, and have an advantage when dealing with modeling uncertain environments.


0761210 山口 修
パターンのもつ不変な性質を利用した物体認識に関する研究

 画像パターン認識においては、画像取得時における撮影条件の変化や撮影方向の違いなどによる見えの変化、識別対象自体の変形など、さまざまな変動により多様に変化する対象を、それらの影響を受けないで、識別することが必要となる。

 本論文では、パターン認識における不変的な性質に着目し、問題となる要因を段階的に拡げるアプローチをとり、(1)局所的な輝度変化に対する不変量、(2)位置や大きさなどの変化に対応する幾何学的な変換に対する不変量の利用法、(3)パターン自体の変形も含む複合的な変化に対応するための不変的な特徴抽出法について考察した。

 具体的には、局所特徴量のマッチング法に関する、対象画素の同値関係、大小関係に基づいた定性的3 値表現による類似度や、幾何学的特徴ベースの手法に見え方ベースの考え方を導入し、幾何学的不変量に基づいた高速検索法を利用した物体認識法の検討、さらに、複合的な変化に対応するために行った、パターン識別の手法である相互部分空間法ベースの手法の拡張に関して議論し、具体的な応用である顔画像認識への応用について述べる。


0861203 中川 繁政
ホットストリップミルのランアウトテーブルにおける鋼板冷却制御に関する研究

 鉄鋼製造においてホットストリップミルは熱延鋼板を製造する基幹工程であり,その中でもランアウトテーブル(ROT)における冷却は鋼板の機械的特性を左右する重要な工程である.このため,ROTで冷却される鋼板温度を高精度に制御する技術が必要で,モデルに基づいた計算機制御や制御理論の適用による高精度化に関して,さまざまな研究が行われている.

 本論文では,制御工学の実応用の観点から,ホットストリップミルのROTにおける鋼板冷却制御に関して,プロセスモデリング,内部状態計測とその制御応用,制御系の安定性解析並びにモデルに即した制御系設計について考察する.

 まず最初に,計算機制御においてはプロセスのモデリングが不可欠であり,ROTの巻取温度制御について,物理モデルを基にしたプロセスのモデリングとモデルに基づいたダイナミック制御について述べる.ダイナミック制御を用いたフィードバック制御方法を提案し,実プラントでの効果を示す.

 次に,鋼板冷却の注水環境下で温度計測できる場合に,鋼板の内部状態である温度情報を有効活用するフィードフォワード制御方法を提案する.

 また,鋼板の冷却履歴を緻密に制御するために,急冷停止温度,中間空冷時間及び巻取温度を同時に制御する多目的な制御手法を提示する.

 最後に,遷移沸騰領域における冷却制御の安定性解析と制御系設計について考察する.ここでは,プロセスゲインが鋼板温度に依存するという前提のもとで,制御系を非線形状態空間モデルで表現する.また,近年注目を浴びている多項式二乗和(Sum Of Squares)を用いた安定性解析を行い,遷移沸騰領域ではPI制御器の比例ゲインを低目に抑える必要があることを示す.更に,SOSの手法を用いて局所制御器を設計する手法を提案し,数値例にてその効果を示す.


0861211 Viktor Zhumati
Metric State Space Reinforcement Learning

Reinforcement Learning (RL) is one of promising methods for learning a policy from reward for real-world robot-control problems. RL algorithms for robot control should be data-efficient, cope with perceptual high-dimensional, continuous state space, and take into account non-isotropic reachability structures. A well-developed theory of RL exists for finite state spaces. The case of continuous state spaces is less understood despite vast research efforts. It usually assumes low-dimensional Euclidean R^n state space that does not represent well the space of perceptual histories of, e.g., vision-capable agents.

I extend McCallum's (1995) Nearest-Sequence Memory algorithm to allow for general metrics over state-action trajectories. I demonstrate the feasibility of our approach by successfully running our algorithm on a real mobile robot. The algorithm (a) explores the environment and learns directly on a mobile robot without using a hand-made computer model as an intermediate step, (b) does not require manual discretization of the sensor input space, (c) works in piecewise continuous perceptual spaces, and (d) copes with partial observability. Together this allows learning from much less experience compared to previous methods.

I further extend the algorithm to deal with sparse trajectories, high-frequency control and possible Lipschitz-discontinuity of value functions by equipping it with local reachability models computed from the exploration data. I test the performance of the proposed framework using non-linear simulated learning control tasks. The tasks were successfully learned without any prior knowledge of the smoothness of the value function and the analysis of the value function confirmed appropriate identification of the Lipschitz-discontinuities.


0861212 Alan de Souza Rodrigues
Multiple reinforcement learning action selection strategies in prefrontal-basal ganglia and cerebellar networks

We proposed a three-system parallel model for action selection and learning from reward and trial-and-error. When knowledge of the task dynamics is unavailable, a valued-based method is used for exploration and learning predictions of future rewards from sensory states and actions. If an internal model exists, a model-based method is implemented by mental simulation to predict future states reached by hypothetical actions and speed up learning. After repeated experiences, a memory-based method is used for fast selection of actions found successful for a given sequence of sensory states. I will discuss and present behavioral and fMRI data that support this hypothesis.


0961024 Katsumasa Yoshikawa
Probabilistic Logic Approach to Event Structure Analysis

This thesis describes probabilistic approach to event structure analysis extracting event, argument and relations for them. Event refers to a change of state which constructs narrated story in a document. Event has taken on an important role in natural language documents. This thesis attempts to analyze such narrative events by combining humans' linguistic knowledge with probabilistic information from annotated corpora.

We focus our effort on construct new analyzers with one of the most popular probabilistic logic frameworks; Markov Logic. Markov Logic is a combination of first order logic and Markov Networks. First order logic can efficiently implement humans' linguistic knowledges. Markov Networks allows us to exploit various features acquired from large corpora. With Markov Logic, we tackle the important three NLP tasks and realize effective integrations of humans' knowledges and probability from corpora.

The biggest advantage of Markov Logic is that it can treat multiple decision simultaneously. In real world dataset, there are various dependencies between relations. For example, let consider a sentence has some predicates and their arguments. In order to identify the relations between predicate-argument, we cannot often find correct assignments when considering only a pair of predicate-argument, because there should be syntactic and semantic dependencies between these predicate-argument relations each other. We attempt to deal with such dependencies by Markov Logic formulae based on humans' linguistic knowledge and construct effective models for various NLP tasks.

Our target tasks are relation extractions about events. We focus on the events which behave as verbs and perform the three relation extraction.

First, we tackle temporal relation identification that we identify temporal orders of events, time expressions, and document creation time. We implements logical constraints of temporal relations and our model finds the optimal solutions in a document.

Our second task is that event-argument relation extraction on biomedical corpus. We involve coreference relations for extracting event-argument relations. Transition rules with coreference relations allows us to event-argument relations crossing over sentence boundaries.

Thirdly, we perform predicate-argument relation extraction on Japanese newswire corpus. In this task, Our method consider all words in a sentence and find the most possible assignments of predicate-argument. We also make qualitative analysis and confirm the effectiveness of our method.

Our contributions are not limited as the performance improvements in particular tasks. Events and arguments we focus on play important roles in a documents. Therefore, our work becomes a nice foothold in understanding documents. keywords: markov logic, transition rule, event extraction, semantic role labeling, temporal relation identification


0861208 I Gede Puja Astawa
An RF Signal Processing Based Diversity Scheme for MIMO-OFDM Systems

This dissertation proposes an RF (Radio Frequency) signal processing assisted space diversity scheme for MIMO-OFDM (Multiple Input Multiple Output-Orthogonal Frequency Division Multiplexing). Although a 2X2 MIMO-OFDM system can double the capacity without expanding the occupied frequency bandwidth, we cannot get additional diversity gain using the linear MIMO decomposition method. The proposed method improves the bit error rate (BER) performance by making efficient use of RF signal processing. Computer simulation results show that the proposed scheme gives additional diversity gain.

Although the proposed method is efficient in terms of improving the BER performance, the computational cost required for MIMO decomposition is too large to implement. In order to solve this problem, we propose a method to reduce the computational cost by making efficient use of Kalman filter for MIMO decomposition with forward error correction.


0961025 吉村 和浩
高性能と低消費電力を実現するプロセッサに関する研究

近年,さまざまな機器にプロセッサが搭載されており, 複数プログラムの実行や増加するデータ処理量への対処のための高性能化だけでなく, バッテリ駆動の延長や電力供給への配慮のための低消費電力化が求められている.

本研究では,組込み機器と汎用計算機それぞれの用途に対して高性能と低消費電力を実現するプロセッサを提案する. まず,組込み機器用途のプロセッサとしてハードウェア資源を共有してプロセッサ全体の回路規模を削減する異種命令混在実行プロセッサOROCHIを提案する. 次に,汎用計算機用途のプロセッサとしてメニコアアーキテクチャおよび粗粒度再構成アーキテクチャの長所を持つ線形アレイ型パイプラインプロセッサLAPPを提案する.

本発表では,まず研究背景として組込み機器と汎用計算機におけるプロセッサの現状と課題について述べた後,OROCHIとLAPPを実証するために用いたプロセッサ開発手法について述べる. そして,OROCHIの概要を述べ,OROCHIのマルチスレッド実行を制御する手法を提案し,提案手法と従来手法によるマルチスレッド実行の性能について明らかにする. その後,OROCHIがマルチコアプロセッサと比較して,省回路規模で電力効率に優れていることを示す. 次に,LAPPの概要を述べ,LAPPの値伝搬モデルと命令写像手法を提案し,提案モデルおよび提案手法が配線数,遅延時間および回路規模において比較モデルよりも改善できたことを示す. その後,LAPPがメニコアプロセッサと比較して,高性能と低消費電力を実現し,電力効率に優れていることを示す.


0661014 Ikumi Suzuki
Statistical and graph-based approaches to small sample and high dimensional data

In recent years, machine learning (i.e. data mining or theconstruction of predictive models) is popularly used to analyzevarious types of data. The goal of machine learning is toconstruct a model using existing data to make predictions for newdata. To build (or select) accurate predictive models, it is necessaryto check the following two aspects of data:

(1) Is the amount of training data large enough to predict unseen test data?If the number of training data is small, because it is difficult toestimate the distribution generating the data, model building becomesmore difficult.

(2) If the data is represented by a vector, is the number ofdimensions small enough not to be affected by the so-called "curse ofdimensionality"?

The issue addressed for (1) in this thesis is to select a predictivemodel for small training samples. As a practical example, we focus oncancer diagnosis that requires an accurate prediction from geneexpression profiling (microarray) data. There, a limited number ofsamples is obtained, hence practical issues are to improve thereliability of the predictive classifier. Traditionally, evaluation ofclassifiers by cross-validation has been carried out to choose aclassifier that maximizes the evaluation. However, due to the highdimensionality of the data compared to small sample size, it isexpected to increase the variance of evaluation distributed bycross-validation, which causes a problem of low reliability of theresulting classifier. In this thesis, in order to solve this problem,a "min-max" method based on the bootstrap resampling is proposed. Bytaking the distribution of cross-validation into account, modelselection is performed to avoid the risk of poor classifier isobtained. In the conventional method, "Leave-one-out cross-validation"was employed to select a classifier. However, this method has a higherrisk of poor performance. Proposed method is less susceptible to biasdue to variation in the assessment of the occurrence data, indicatingthe effectiveness of risk-averse as a model selection criterion.

The issue addressed in (2) is related to the high dimensionality of data.A ``hub'' is an objectclosely surrounded by, or very similar to, many other objects in the dataset.Recent studies by Radovanovi\'c et al. demonstrated that in high dimensional spaces,objects close to the data centroid tend to become hubs.In this paper, we show that the family of kernels based on the graph Laplacianmakes all objects in the dataset equally similar to the centroid,and thus they are expected to make less hubs when used as a similarity measure.We investigate this hypothesis using both synthetic and real-world data.It turns out that these kernels suppress hubs in some casesbut not always,and the results seem to be affected by the size of the data---a factornot discussed previously.However, for the datasets in which hubs are indeed reduced by the Laplacian-based kernels,these kernels work well in classification and information retrieval tasks. This result suggests that the amount of hubs,which can be readily computed in an unsupervised fashion,can be a yardstick of whether Laplacian-based kernels work effectively for a given data.


0961014 武貞 征孝
横隔膜の収縮機能を評価する筋音図の計測と解析に関する研究

 呼吸運動の主働筋である横隔膜の収縮機能低下は呼吸不全に直結する因子である.このため,横隔膜収縮機能を計測・評価し,疾病の早期発見や適切な治療を行うことは健康管理や生命維持の観点からも重要となる.しかし,胸郭内にある横隔膜の収縮機能を計測することは容易ではない.本研究では,横隔膜の機能を非侵襲に計測・評価するために,筋音図(MMG)を応用し,その信号の再現性,最適導出部位,トランスデューサを含めた計測法の確立を目指した.

 本研究ではまず,MMGの臨床応用の実現を目指し,級内相関係数を用いた横隔膜MMGの再現性を評価した.その結果,胸部の複数箇所から記録したMMGは,何れの導出位置でも優れた再現性を有した.また,第9肋間縁矢状線上の第8,第9肋間から有意に大きな振幅が記録され,これを最適導出部位として推奨した.次いで,筋ジストロフィーと重症心身障害患者の横隔膜MMGから臨床診断の有効性について検討した.その結果,MMG振幅,筋電図(EMG)に対するMMG振幅比率,MMG潜時は,各病態の特徴を反映し,MMGによる横隔膜機能の臨床診断の有効性が示唆された.

 なお,上記の個別研究で使用した加速度計型MMGセンサは,小型で絶対値(加速度)測定が可能である反面,体動が混入しやすい.そこで,本研究ではコンデンサマイクロフォンの前段に空気室を設けた空気伝導型MMGセンサの開発に焦点を置いた.ここでは空気室の影響を理論解析とモデル実験で分析し,空気室の最低容積を明示するとともに,空気伝導型MMGセンサが体動の混入を防ぎ得ることを確認させた.さらに,生体実験にて横隔膜MMG信号を記録した結果,加速度計型MMGの二階積分値と空気伝導型MMGは,主要スペクトルピークが概ね一致し,両センサが同一起源の筋振動の計測を指示することが示唆された.

 以上,本研究は,MMGが横隔膜機能の評価に際し,簡便かつ有用であることを明らかにした.また,横隔膜MMGは呼吸器疾患の診断,呼吸療法の効果など様々な臨床診断に広く寄与できること,さらに,本研究で設計した空気伝導型MMGセンサは体動の混入を防ぎ,動的な活動や運動時のMMGをも測定できる可能性が示唆された.


0961018 Kohei Hayashi
Generalization of Tensor Factorization and Applications

A multi-dimensional array or a tensor is a common representation of relational data such as the WWW network and protein-protein interactions. Given a data tensor, tensor factorization finds low-dimensional features that are useful for the data analysis.

In this presentation, first I give a brief overview of a tensor factorization called the Tucker decomposition with some related works.

Next, I present a generalization of the tensor factorization model for a heterogeneously attributed data tensor such as that contains mixed discrete and continuous variables. The model, called ETF, can manage such heterogeneity by employing individual exponential-family distributions for each attribute of the tensor. The assumption of the heterogeneity makes a Bayesian inference intractable, and it is used the EM algorithm approximated by the Laplace method and Gaussian process. Some experimental results including anomaly detection of multiple sensor measurements are also shown.

Finally, I discuss a kernel-based framework for completion of a partially observed tensor, which uses the observed elements as inputs for a kernel function. An efficient conjugate-gradient-based algorithm for prediction is developed, and it enables us to capture the given tensor on high (possibly infinite) dimensions with moderate computational cost. It is also explained that this framework includes the K-nearest neighbor and the GP-based models as special cases.


0961001 伊原 彰紀
OSSの不具合修正プロセス効率化のためのコミッター推薦と不具合修正時期の予測

近年,オープンソースソフトウェア(OSS: Open Source Software)の大規模化に伴い,1日に数百件もの不具合がOSSプロジェクトに報告されている.そのため,ボランティアとして活動する開発者が多いOSSプロジェクトでは,不具合修正に貢献するコミッターを常に確保するための態勢を整える必要がある.また,OSS開発者によって修正されていない不具合が多く存在することから,OSS利用企業は,修正を要する不具合が次期リリースまでに修正されるか否かを判断し,修正されないのであれば,自社で修正することを検討する必要がある.

本研究では,大規模OSSプロジェクト,および,OSS利用企業の各々の立場における不具合修正プロセスの効率化を目的として,不具合修正に貢献する有能なコミッターを見つけ出す方法,および,不具合の修正時期を予測する方法を提案する.

本発表では,まず,OSSの不具合修正が効率的に実施されていない原因となる作業を特定するために,大規模OSSプロジェクトが管理する不具合管理システムに記録される不具合修正の進捗情報を用いて,過去の不具合修正に必要となった一連の作業内容や個々の作業時間を可視化,および,分析した結果について述べる.次に,大規模OSSにおける膨大な不具合の修正を実施するために,プロジェクトに参加する一般開発者の中からコミッターに推薦されるべき有能な開発者を見つけ出すためのモデル構築方法について述べ,モデルの有効性を示す.最後に,OSS利用企業における不具合修正プロセスの効率化のために,修正を要する不具合が次期リリースまでに修正されるか否かを予測する方法を述べ,モデルの有効性を示す.


1061032 Ziji Ma
Studies on Interference Suppression Methods for ISDB-T in Fast Fading Channels

Orthogonal Frequency Division Multiplexing (OFDM), as a primary modulation technique, is adopted by ISDB-T (Integrated Services Digital Broadcasting for Terrestrial) standard for its high frequency spectral efficiency and robustness against multi-path interference. However in the fast fading channels, the OFDM signal suffers from impulsive noise and inter-carrier interference (ICI), which causes serious impact on the ISDB-T receivers.

In order to suppress the interference from impulsive noise, a joint frequency-domain/time-domain scheme using adaptive parameters is proposed. The impact of impulsive noise can be detected by using the guard band in the frequency domain; meanwhile the main information of impulsive noise, including burst duration, instantaneous power and arrived time, can be estimated as well. Then a time-domain window function with adaptive parameters, which are decided in terms of the estimated position information of the impulsive noise and the carrier-to-noise ratio (CNR), is employed to suppress the impulsive interference. Simulation results confirm the validity of the proposed scheme, which improves the bit error rate (BER) performance for the ISDB-T receivers in both AWGN channel and Rayleigh fading channel.

For another serious interference for ISDB-T in fast fading channels, the ICI destroys the orthogonality between the subcarriers of OFDM signals, which will cause attenuation on system performance. An iterative equalization method using compressed sensing (CS) based channel estimation is introduced to compensate the OFDM signal suffered from the ICI for ISDB-T receivers. Computer simulation has been conducted, and it is clearly shown that the proposed method can significantly improve the BER performance of OFDM systems, in comparison with the conventional Least Square (LS) methods.


0961010 Noriyoshi Kamado
Sound Field Reproduction Integrating Multi-point Sound Field Control and Wave Field Synthesis

The multichannel sound field reproduction methods are the prospective candidates to improve the quality and interactivity of acoustic telecommunication experiences. In this dissertation, robust and high-quality sound field reproduction is addressed with a new proposal of integration of multi-point sound field control (MCWS) and wave field synthesis (WFS). In sound field reproduction, the competing requirements on the listening area and reproduction accuracy arise. In this dissertation, a new method is proposed for balancing these goals based on an inverse filter of the room acoustics: the null space of a generalized inverse matrix is dedicated to a compensation filter of the wave field outside the control points by imposing WFS into MCWS. The results of computer simulations and real-apparatus-based wavefront measurements show that the proposed method can balance the competing requirements on the listening area and accuracy under realistic acoustical conditions. In applying proposed method to commercially available sound contents, localization information of each sound source is required as a cue of the primary sources generated in WFS. Therefore, in this dissertation, next, a new sound field coding framework and interactive controller for audio object localization based on spatially representative vector operations are proposed. The developed controller allows a listener to intuitively operate displayed audio objects with a touch pen. The results of the experiments clarify that the controller enables the listener to change the gain and the localization of audio objects without sound degradation if the gain operation is not extreme. From these findings, we can conclude that my proposed sound field coding and reproduction framework has wide applicability in an actual environment.


0961011 久保 孝富
格子状電極を用いたオトガイ下部からの表面筋電図計測および母音認識へのその応用

 構音障害を来した患者では、発話が不明瞭となり、コミュニケーションに支障 を来してしまう。しかし、構音障害者へのコミュニケーション支援の方法は、十 分に確立されているとは言い難く、新たな支援方法の開発に期待が寄せられてい る。実際にコミュニケーション支援の目的で様々な研究が行われており、そのよ うな研究の一つに表面筋電図信号に基づいた音声認識が有効であることを示した Deng らの報告がある。一方で、表面筋電図信号に基づいた音声認識の先行研究 では、電極の配置の妥当性に議論の余地が残っている。これら先行研究では、一 般的に用いられる皿状電極やパラレルバー電極を用いて表面筋電図計測を行って いるが、神経終板やクロストーク等の影響により信号対ノイズ比の低下を生じ得 るため、電極の配置の際にそれらの要因に対して十分な考慮が必要となる。

 神経終板やクロストークの影響に対処する上で、多計測点を有する格子状電 極を用いた表面筋電図計測が、電気生理学の研究分野では有効な方法だとされて いる。そのため、本研究では、表面筋電図信号に基づいた音声認識に対して、格 子状電極を用いた計測方法の導入を試み、その有用性の検証を行った。実験課題 には、音声においての重要性を考慮して5 母音を採用することとし、そして計測 部位はオトガイ下部とした。オトガイ下部を対象とした理由は、母音生成におい て重要と考えられる器官である舌の運動に関与する筋活動の計測を行えるからで ある。

 本稿では、まず格子状電極を用いることで表層にある筋肉の神経終板の位置が 特定され得ることを示す。次に、格子状電極によって導出された表面筋電図信号を 用いて母音認識の実現が可能か検証し、実際にオトガイ下部からのみであっても 一定の精度で母音認識を実現できることを示す。最後に、格子状電極を用いること で計測信号に冗長性が生じてしまうと考えられるが、sparse discriminant analysis を用いることで、冗長なチャンネルを削減できる可能性があることを示す。


0961021 松原 裕貴
CPUキャッシュの利用効率の向上による時系列パターンマイニングアルゴリズムの高速化手法に関する研究

時系列パターンマイニングの分野では,大規模なデータベースを対象に処理を行った場合、 処理時間が膨大になるといった問題があり,処理時間を短縮するために過去において様々なアルゴリズムが提案されてきた. 本研究では,既存の時系列パターンマイニングアルゴリズム PAIDのアルゴリズムの中核を変更することなく, CPUキャッシュの利用効率を向上させることにより処理時間を向上させることを目的とし、 CPUのキャッシュミスを削減させるために時系列パターンマイニングアルゴリズム CC-PAIDとCCDR-PAIDの提案を行った.

CC-PAIDは,PAIDが共通する接頭辞を持つ時系列パターン間で特定のデータ構造に対しての処理範囲が同じになるといった点に着目し, 特定のデータ構造を共通する接頭辞を持つ時系列パターンで一度に処理を行う Common-Prefix-At-A-Timeといった手法を提案し、時間的局所性を向上させるものである. これに対し,CCDR-PAIDはCC-PAIDのCPUキャッシュの利用効率を更に向上させるため, 特定のデータ構造から処理に必要な要素を抜き出すといった動的な再構築を行い, 再構築されたデータ構造を用いて省略可能なデータへのアクセスの省略や不要なデータへのアクセスの回避を行うといったものである.

また,PAID,CC-PAID,CCDR-PAIDの処理時間とCPUのキャッシュミスを測定し,性能評価を行った結果を示す. 更に,PAIDとCC-PAIDでは並列処理を行った際の性能評価も示す.


1161025 高井 努
プラントアラームマネジメンのためのアラームシステムの性能監視

アラームシステムはプロセス産業の安全操業に必要不可欠な要素である.またアラームシステムを常に適正に維持することは,安全だけでなく,品質や生産性の向上などプラント操業の価値に直結する.一般に既設プラントにおけるアラームシステムマネジメントはCAPDoアプローチであり,アラームシステム性能を評価することから始まる.そして,この評価プロセスはその後の改善活動を効果的に実施するために極めて重要である.これまでの評価法は,アラーム発生率やアラーム発生分布,アラーム持続時間などを定量的に評価するものが主流であった.しかし,これらは単に警報(シグナル)としてのアラームに着目しており,アラームシステムの役割を捉えていないため,オペレータ目線での評価としては課題がある.Engineering Equipment & Materials Users’ Association (EEMUA, 2007) は,オペレータに提供されるすべてのアラームは,オペレータにとって役立つものであり,関連があるべきと提言している.よってアラームとオペレータ対応操作の関係性からアラームシステム性能を改善する方法や評価するための新しいKPI(key performance indicator)の必要性がある.

本研究では,初めにアラームシステムとオペレータ対応操作を含む第二,第三防護層(AIChE/CCPS, 1993)の性能改善に向けての課題やオペレータの運転知識を抽出するイベント相関解析法(ECA1)を提案する.ECA1はアラームやオペレータ操作をその発生時間と共に記録しえたプラント運転ログデータから二つのイベント間の類似度と発生時間差を定量化するデータマイニング技術である.また本手法の有効性を実際の化学プラントのデータを利用したケーススタディを通して確認した.続いて,ECA1の課題とされるプラント運転ログデータを一定のウィンドウタイム幅でバイナリデータに変換するために類似性を持つ二つのイベントの発生点間のタイムラグの分散が大きい場合に,ウィンドウタイム幅を適正に選択できないと類似性を正しく検出できない点を改善した拡張イベント相関解析法(ECA2)(Kurata, et al., 2011)の有効性を実際のエチレンプラントで記録されたプラント運転ログデータに適応して検証した.次にプラントアラームシステムの性能評価用の新KPIsとして,EEMUAが提示するアラーム8特性の内,操作相関性,一意性,適時性をプラント運転ログデータからイベント相関解析を応用し,定量的に評価する方法を提案する.また,8特性すべてをオペレータアンケートを用いて定量的に評価する方法を提案する.いずれも実際のエチレンプラントの協力を得て,その効果検証を実施した有効性を確認した.本研究の成果は,実際の製造現場エンジニアやオペレータといった実務者レベルにおける日々の改善活動に大いに貢献するものと期待される.


0961017 林宏太郎
公共空間におけるロボットが人に代わって行う Communicative Tasks に関する基礎的研究

本研究では,不特定多数の人が行き交う公共空間において,人と意思疎通を取ることを必要とする作業であるCommunicative Tasksを、ロボットが人に代わって行うための研究課題の解明と、その解決法に関する基礎的研究を行う.近年のソーシャルロボットの発展に伴い,ロボットの実社会への進出に関する研究が盛んに行われており,ロボットが実際に公共空間で,人と意思疎通が必要なCommunicative Tasksを行うことに期待が持たれている.しかし, 従来研究では,実際ロボットが公共空間で人に代わってCommunicative Tasksを行うことへの社会的受容を初め,ロボットが人々から主観的に評価されるために解決すべき課題を明らかにした研究は少ない.

そこで,ロボットが人に代わってCommunicative Tasksを実施するために、人々がどのようなTaskを社会的に受容するのかを調査した.“ヒューマノイドロボット”,“人間”、想定するような実環境において既に運用されている存在である”着ぐるみ”,の3種で比較実験を行った.実験において,コミュニケーションを必要としつつ,現在は人が行なっているが,あまりやりたがらないような、“延々と道案内を行う”、“理不尽な要求を受ける”,“依頼されてゴミ箱から鍵を拾い上げる”という3種の作業を行わせたビデオを被験者に見せ,主観による評価を行った.その結果,人々は3種の作業全てにおいて,ロボットが行ったほうが良いと考えていることがわかった.特に延々と利用者に案内を行うような作業は、その有意差が顕著に表れた。

その結果を受け,実際にロボットが人に代わって公共空間でCommunicative Tasksを行う場合,人が行なっているものと同じ振る舞いができれば理想的である.現在,行き交う通行人の分類,それに応じた振る舞いの変化,ノイズの多い公共空間における適切な音声認識、などの様々な研究が行われているが,ロボットの振る舞いの違いの人々の主観への影響に関しては十分に研究が進んでいない.そこで,公共空間でCommunicative Tasksを行う際の歩行行動に注目し,実際の人からモデルを獲得し,ロボットに実装することで,ただ歩くだけの振る舞いと比較して,人から得た行動モデルに基づく振る舞いをロボットが行うことによって,人々の主観が変わることを実証した.


0961026 BLANC GREGORY
Reversing Malicious Intents in Web Scripts: from Automating Deobfuscation to Assigning Concepts

This dissertation presents program comprehension methods to infer malicious intents in web application scripts. Web 2.0 applications are plagued with web-based malware that leverage client-side scripting to exploit application and browser vulnerabilities. Moreover, scripting allows attackers to elaborate more complex attacks. On the other hand, they take advantage of distributed malware networks to reach to unsuspecting victims. Victims are often lured into accessing a vulnerable domain, and subsequently be redirected to an attack website. Web malware makes an intensive use of redirection, cloaking and obfuscation techniques to conceal its malicious intents.

My research motivation is to reveal these intentions in order to prevent browsers from getting exploited. Advanced countermeasures such as VM-based honeypots or browser emulators are vulnerable to some cloaking techniques, but are particularly lacking in usability since they rely on execution-based analysis. In fact, behavior-based detection has been very popular lately in the domain of malware analysis, overshadowing other alternatives. Indeed, scripts are interpreted, thus source code is readily available, offering the opportunity to apply static code analysis techniques.

In this dissertation, I propose a proxy-based solution to support realtime online analysis of staged web-based malware. I attempt to statically express the malicious intent of malware script by decomposing it in a limited number of concepts that can be represented by a UML sequence diagram. However static analysis alone cannot overcome the issue of deobfuscation, which is tackled using automated deduction. In particular, leveraging the properties of the Maude rewriting framework, I provide a sound and complete, yet terminating rewriting of obfuscated contents. This stage is actually dependent on the success of the previous tool which extracts obfuscated contents based on their syntactic patterns. Using a pushdown automaton, the system is able to match obfuscation patterns as subtrees of an abstract syntax tree representing the original script program to analyze.

The whole system can be seen as a set of 3 modules collaborating, but it can also be thought as independent tools, each contributing to further applications ranging from crawling to surveying to debugging.


0861207 Asaad Ahmed Gad El-Rab
Methods for Efficient Service Replication and Information Gathering in Mobile Networks

In this dissertation, we propose a distributed replication scheme called a Highly Distributed Adaptive Service Replication called (HDAR), aiming to improve service availability with reasonable energy consumption across the network. HDAR divides the whole network into disjoint zones with diameters at most 2 hops, selects a node with minimum moving speed in each zone as a zone head, and constructs a virtual backbone network connecting all zone heads. HDAR replicates a service dynamically to some of the zones depending on the service demand level in each zone and the tradeoff between the communication and replication energy consumption costs. In addition, to control the number of service replicas, HADR lets neighboring servers exchange with each other information of their covering zones. Through simulations, we confirmed that our approach can achieve higher service availability up to 5% than existing methods with reasonable energy consumption which was reduced up to 53%.

Also, we propose a concept of (α, T)-coverage of Area of Interest (AoI) for information gathering in People-Centric Sensing where each point in AoI is sensed by at least one mobile node with the probability of at least α during time period T. To solve the (α, T)-coverage problem, we propose two algorithms: inter-location and inter-meeting-time algorithms, to meet a coverage ratio α in time period T. The proposed algorithms estimates the probability of locations in the AoI being visited by each mobile sensor node in T, and selects a minimal number of nodes inside the AoI. The inter-location algorithm considers the distance between the nodes while the inter-meeting-time algorithm regards the expected time until any two of the nodes will meet at a location. To meet the required coverage in the case of an insufficient number of nodes existing inside the AoI, we propose an extended algorithm which takes into account not only nodes existing inside the AoI, but also nodes outside the AoI. In addition, for more accurate coverage, we propose an updating mechanism which aims to remove useless nodes and add some extra nodes that contribute more to AoI coverage. The conducted simulations show that the proposed algorithms achieve (α, T)-coverage and the number of selected nodes is much smaller than the number of candidates nodes in the AoI and its reduction up to 76%, 79%, 85%, and 80% for a variety of values of α, T, node density and AoI size, respectively.


0961004 Masakazu Iwatate
Development of Pairwise Comparison-based Japanese Dependency Parsers and Application to Corpus Annotation

In Japanese dependency parsing, Kudo's relative preference-based model outperforms both deterministic and probabilistic CFG-based parsing models. In the relative preference-based model, a log-linear model estimates selectional preferences for all candidate heads, which cannot be considered in the deterministic parsing models. We propose a parsing model in which the selectional preferences are directly modeled by one-on-one games in a step-ladder tournament. In the evaluation experiment with Kyoto Text Corpus Version 4.0, the proposed model outperforms the previous researches, including the relative preference-based model. We also conducted the stacking experiments with KNP, which is a Japanese dependency parser and is different in several aspects from the tournament model. The tournament model incorporates the output of KNP as guiding features. The stacked model outperformed the individual parsers.

We also investigates the accuracy of partial parsing of three SVM-based Japanese dependency parsing models: the shift-reduce model, the cascaded chunking model, and the tournament model. We show the coverage-accuracy curves based on the scores produced by SVMs. Our performance evaluation with the Kyoto Text Corpus shows that the partial parsing accuracy of the tournament model is the highest among the three dependency parsing models. The tournament model achieves 99\% accuracy with 60\% bunsetsu-based coverage. We also explore the usage of the SVM scores for active sampling. Preliminary experiments show that our SVM score-based active sampling can be used to select effective training examples for Japanese dependency parsing with less manual effort.

One of the difficult problems for dependency parsers is to identify spans of coordinated structures. A solution is to employ a coordination analyzer, which is specialized for capturing such structures. Employing such an analyzer causes a problem of how to integrate dependency parser's and coordination analyzer's outputs. We employ the dual decomposition algorithm, which is a decoding algorithm designed to integrate two analyzer's outputs. Since the algorithm requires the property that the optimal solution of an analyzer is the maximally-scored one, we propose such a parsing model which inherits the advantage of the tournament model.

When constructing a corpus with dependency and coordinated structures, it is efficient to annotate coordinated structures first. This is because definition of coordinated structures is more understandable than that of dependency structures and, automatic coordination analysis is less accurate than dependency parsing. We exploit another advantage. Given the coordinated structure annotation of a sentence, possible dependency structures are constrained by the coordinated structure. We propose to boost the efficiency of dependency structure annotation by construction of a precise dependency parser using the annotation. The dependency parser provides dependency structure annotators an automatic parse with fewer errors. We conducted experiments with the Balanced Corpus of Contemporary Written Japanese (BCCWJ) and show that our method improves automatic parsing accuracy and detects dependency annotation errors.


0861019 山尾 将隆
計算機を用いた複数の階層にわたる細胞移動の研究

多細胞生物における発生過程を始めとして,細胞移動は非常に重要な 役割を担っており,そのシステムがどのように制御され,力学的にどのような性 質かを知ることは,生物への理解を深めるためには必要不可欠である. 従来手法において,簡単なモデルにおける理論解析や,静的な生化学的手法を用いた研究が 行われてきたが,形態変化を始めとする動的な振舞 いに関しては,力不足が否めなかった.しかしながら近年における計算 機能力の著しい向上や,生きた細胞内における分子のモニタリング技術の出現は, 動的な細胞システムの理解に大いに役立つことが期待される. 一方,これらを性能を十分に生かすための手法は,未だ発展途上と言わざるを得ない. 本研究は,これらの利点を生かしつつ,今までにない視点から細胞移動の研究を 行うための技術開発と,その結果について述べる.

 本発表ではまず,発生過程における細胞集団移動における物理的特徴に焦点を当て,それが どのような影響をもたらすのかについて述べる.そのため,まず単純な移動細胞のモ デルを構築し,多細胞系における細胞集団移動のモデルシミュレーションを行った. その結果,細胞集団移動パターンが,移動性細胞,非移動性細胞の揺らぎの強度 に依存して変化することを突き止めた.さらに,移動細胞同士のダイナミクスを 縮約する手法を開発し,その結果から,どのように揺らぎが細胞移動のパターンを 決定しているのかを明らかにした.

次に細胞動画の予測問題について焦点を当てる.より詳細な細胞モデルを構築するためには, 実験データから,そのダイナミクスを同定することが必要であるが,導出したダイナミクスの 妥当性を示すためには,そのダイナミクスを用いた予測を行う必要がある. そこで,細胞形態の決定に大きな役割を持つCDC42活性をモニタした動画から,シグナ ル検出,動きの定量化技術の開発を行い,伸びの予測を行うことができた.

以上の結果を用いることによって,近い将来,詳細な細胞動態ダイナミクスの同定や, より現実的な多細胞系シミュレーションが行えることが期待される.


0961023 Junta MIZUNO
Organizing Information Based on Semantic Relation Recognition

情報検索技術の発展により,検索要求に対する多様な情報を容易に入手できるようになった.しかし,検索要求に対する理解を深めるためには,大量の関連情報を分類・整理する必要がある.これまで,トピックや評価極性といった尺度で分類し,情報を組織化する研究が行われてきた.しかし,例えば賛否に基づく分類など,情報間の関係を考慮しなければならない場合には,分類に基づく手法は不向きである. そこで本研究では,文間の関係を同定し,その関係に基づいて情報を組織化する.

本発表では,まず,関係に基づいて情報を組織化する課題を設計する.具体的には,ウェブ上の文を収集・分析した結果から分類する関係を定義し,最も重要な要素技術が文間関係認識であることを確認する.

次に,どのように情報の組織化を実現するかについて報告する.その中心技術である文間関係認識は,一組の文対が与えられたときに,その間の意味的な関係を同定する課題である.本課題について,まず,先行研究である含意関係認識との類似・相違点を指摘する.次に,文構造の制約などを段階的に緩和していくモデルを用いて,内在する問題を切り分けていく.最後に,文間で内容的に対応する部分を正しく同定することが最も重要であることを示す.

本発表の最後では,実際に任意のクエリに対して関連情報をその間の関係に基づいて組織化するウェブサービスを構築したこと,およびそのユーザ評価結果について報告する.既存の検索エンジンとの比較により,提案する方向性の有効性を示すことができた.


情報科学研究科 副専攻長