A quantum computer is expected to solve some problems far faster than today’s computers and may be a promising device with low power consumption. This computer is based on the physical theory of quantum mechanics. In the theory of quantum mechanics, quantum states and evolutions of quantum states are represented by vectors in a Hilbert space and unitary operators, respectively. A unitary matrix can then be regarded as an algorithm in the conventional computer. Since it is generally difficult to develop an arbitrary unitary matrix in a quantum system, quantum computation is carried out by combining elementary operations such as oneor two-qubit operations, where a qubit is the smallest unit of information in quantum computation. A unitary matrix is said to be performed effectively if there exists a quantum circuit composed of a polynomial number of elementary gates. Therefore, translating a unitary matrix into an efficient sequence of elementary gates is a fundamental problem in designing quantum circuits.
In this dissertation, the problem involved in synthesizing minimal quantum circuits for carrying out any (large) quantum operation is described. The author considers two quantum systems, namely, the two-level quantum system and the d-level quantum system, where d is any integer greater than two. Here, the two-level quantum system can be regarded as a quantum mechanical analogue of conventional computation, and the d-level quantum system can be regarded as a quantum mechanical analogue of conventional multilevel logic.
First, the author proposes a new method for the synthesis of quantum circuits for the two-level quantum system, which is based on a divide-and-conquer strategy and the KAK matrix decomposition. Using this method, an arbitrary 2n×2n unitary matrix can be translated into a quantum circuit composed of O(4n) elementary gates. The efficiencies of the size of the quantum circuit synthesized by the method described in this dissertation is the same as that of the size of the previous best-practice methods.
However, the proposed method is advantageous for the synthesis of polynomial-size quantum circuits for the radix-two quantum Fourier transform (QFT), whereas other methods include some optimization and simplification techniques for the synthesis of polynomialsize quantum circuit.
Second, a method for the synthesis of quantum circuits for the d-level quantum system is described. Here, the author proposes a balanced partitioning method that is based on the the divide-and-conquer strategy. The previous methods used for computing the KAK decomposition are preferred for the two-level quantum system. However, to apply the KAK decomposition to the general d-level quantum system, the partition size has to be chosen carefully because the size of the quantum circuit produced by the synthesis method increases exponentially when an nappropriate partition size is selected. The synthesized quantum circuit is not asymptotically optimal except when d is a power of two. However, when the number of qudits n is small, where a qudit is the smallest unit of information in the d-level quantum system, the proposed method can synthesize the smallest quantum circuit as compared to those synthesized by other synthesis methods.
Third, a new quantum circuit is developed for implementing the Aharonov-Jones-Landau (AJL) alorithm for solving the problem of approximating the Jones polynomial (knot invariant) at the k-th root of unity. It is important to implement the AJL algorithm efficiently on a quantum computer because the above problem is closely related to the quantum computational complexity theory. The problem that the AJL algorithm solves is known as #P-hard problem in conventional computational complexity theory. However, the result of the AJL algorithm showed that the problem can be solved in polynomial time using the quantum computer, when k and the number of crossings m are given as polynomials in n. The author improves the performance of the AJL algorithm and shows that the performance of the AJL algorithm does not depend on k.
ソフトウェアテストでは,限られたリソースで信頼性を確保するために,ソフトウェア中の各モジュールの信頼性(fault の有無)を予測し,fault を含むと判断されたモジュールにテスト工数を重点的に割り当てることが求められる.その手段として,従来,モジュールの特性を表すメトリクス値の集合からfault の有無を判別するモデル(以降,fault-prone モジュール判別モデル)が数多く提案されてきた.
本論文では,fault-prone モジュール判別モデルの性能向上を目的とし,(1) モデル構築用データ(フィットデータ) の偏りを解消するサンプリング法の適用,(2) モデル自体の表現能力の限界を補うハイブリッド方式の提案,を行った.これによって,多くのテスト現場において,モデル構築に適したフィットデータの準備が容易になるとともに,fault の有無の判別精度が向上することで,より効果的なテストが行えることが見込まれる.本論文の具体的な成果は次のとおりである.
(1) サンプリング法適用の効果
従来,フィットデータに偏りがある,すなわち,fault を含むモジュールの個数が著しく少ない場合に,性能のよい判別モデルが構築できないということが課題であった.本論文ではフィットデータにサンプリング法を適用し,fault を含むモジュールの個数を制御することで,フィットデータの偏りを解消する.本論文では,主要な4 種類のサンプリング法(ROS,SMOTE,RUS,ONESS) 適用の効果を,4 種類の判別モデル(線形判別分析,ロジスティック回帰分析,ニューラルネット,分類木) について実験的に評価した.その結果,線形判別分析とロジスティック回帰分析にはサンプリング法適用の効果があること,また,ONSSS は他の3 つのサンプリング法よりも効果が小さいことがわかった.線形判別分析とロジスティック回帰分析の判別モデルに,ONESS 以外のサンプリング法を適用した場合,判別精度を表すF1 値が平均0.125 向上した.
(2) ルールベース判別とモデルベース判別の組み合わせ方法
Fault-prone モジュール判別モデルは,それぞれモデル式の表現形式が決まっており,それらの表現上の制約のために,fault の有無を正しく判別できるモジュールは限られている.本論文では,fault の混入という事象を(一つのモデル式ではなく)多数のルールの集合として捉えるルールベース判別に着目し,ルールベース判別(相関ルール分析)と既存のモデルベース判別(ロジスティック回帰分析)の組み合わせ方法を提案した.提案手法では,与えられたモジュールに対し,重要なルール(支持度,信頼度,または,リフト値の大きなルール)が存在する場合は相関ルール分析によって判別し,そうでない場合は,ロジスティック回帰分析によって判別する.複数の重要なルールが存在する場合には,判別結果の多数決を行う.提案手法の判別性能を評価するために,3 つの代表的なfault-prone 判別モデル(ロジスティック回帰分析,線形判別分析,分類木)の性能と提案手法の性能を比較する実験を行った.その結果,重要とみなすルールの選択にはリフト値が適していることが分かり,リフト値に閾値を設けてルールを選定することで,F1 値が従来手法と比較して0.163 向上した.
近年,高齢化が社会的な問題となり,車椅子ロボットなど高齢者を肉体的に支援するためのさまざまな研究開発が行われている.また,肉体的な支援を目的とした研究だけでなく,ロボットが高齢者とインタラクションすることで高齢者を精神的に支援する研究もいくつか報告されている.しかし,現在のロボットは十分な対話機能を持たないため,高齢者とロボットとのインタラクションはノンバーバルな範囲に限定されているのが現状である.このような背景から,本論では,人と話すこと自体を目的としたロボットの実現に向けて,会話分析的な立場と工学的な立場から雑談対話の課題に取り組む.
まず,会話分析的な立場からは「対話の盛り上がりに寄与する発話は何か」および「雑談に特徴的な発話は何か」というふたつの課題を明らかにする.ひとつめの課題に対しては,人間同士の雑談対話を収集し,対話の盛り上がりと発話との関係を調べた.その結果,「感情を表現する発話」や「協調的な発話」などが盛り上がりと関係することが分かった.また,ふたつめの課題に対しては,人間同士の課題遂行対話と雑談対話を収集し,両者における発話のやりとりを比較することで,雑談対話に特徴的に出現する発話を解明した.その結果,雑談対話では「働きかけ/応答」の発話が多く出現することが分かった.また,「間接応答」および「問い返し」のほとんどが「働きかけ/応答」発話になることも明らかとなった.
さらに,工学的な立場からは,会話分析から雑談に重要と分かった「感情を表現する発話」を対象として,ユーザ発話の意味する感情を推定する手法を提案する.具体的には,感情極性(ポジティブ/ネガティブ)を推定した後に,感情(嬉しい,悲しいなど10種類)を推定する手法を提案した.感情極性や感情を推定する際には,World Wide Webから自動獲得した「感情生起要因コーパス(感情生起の要因となる事例を集めたコーパス)」を用いた.評価実験の結果,我々の提案手法による感情推定精度は,従来手法より有意に高い精度であることが確認された.
臨床検査の短時間化及び簡便化は患者および検査に関係する医療関係者の心身的負担が軽減される重要な課題である.O-15ガスを用いた陽電子放出断層撮像法 (PET) 検査は,局所脳血流量,酸素代謝量,脳血液量などの生理量を定量でき,脳血管障害疾患に対する診断の指標として重要な役割を担っている.しかし,PET検査は,CT検査やMRI検査に比べ,長い検査時間が必要である.Kudomiらが開発したDual-tracer autoradiographic法(DARG法)と15O2とC15O2を連続的に投与する検査プロトコル(DARGプロトコル)を利用することにより,大幅に検査時間が短縮されたが,1回の検査におけるPET撮像に20〜30分を要する.またDARG法では動脈から経時的に採血を行う必要があるが,動脈採血による患者への負担は大きい.さらに検査前に準備等でさらなる時間を必要であり,実際の患者及び医療関係者の拘束時間は30〜60分になる.そのため,より短時間かつ簡便な検査が切望されている.
本研究ではDARG法およびそのプロトコルを利用した定量画像計算法であるDARG法を利用してさらなる検査の短時間化及び簡便化を目的に以下に記した2つの研究をおこなった.
1. DARGプロトコルにおける残留C15O放射能の定量値に対する影響とその除去法の開発
DARGプロトコルにおいて,C15Oを用いたPET撮像が,15O2とC15O2の連続投与撮像 (15O2-C15O2撮像) の前に行われる.通常,脳内のC15Oの放射能が十分低くなった状況で,15O2ガスの供給を開始するが,C15Oは脳内からの洗い出しが遅く,15O2-C15O2撮像の前に,C15Oの放射能が十分低くなるまでの待ち時間を要した.これは検査時間の延長につながる.本研究では,DARG法によって計算される定量値に対して,残存するC15Oの放射能がどのように影響するかをコンピュータシミュレーションにより明らかにした.そして,残留C15O放射能の影響を排除し,待ち時間をできるだけ短縮化する手法の開発を行った.
2. DARGプロトコルにおけるcount-based OEF (cbOEF)の有用性の検討と検査時間短縮の試み
DARG法で定量値を求めるためには,PET撮像中,経時的に動脈中の血液を採取し,動脈血中の放射能を得る必要がある.本研究では,動脈血の採取を必要とせず,15O2とC15O2のPET値間における比から相対的な酸素摂取率(oxygen extraction fraction,OEF)を求める方法(count-based法)が,DARGプロトコルにおいて応用できるかを実際の臨床データを利用して検討した.count-based法自体は,すでに従来のPETプロトコルで試みられおり、有効な診断情報が得られることがわかっている.しかしDARGプロトコルでの試みは,本研究において初めて行われた.また,コンピュータシミュレーションを行い,count-based法がどこまで短時間のDARGプロトコルに耐えうるかを検証した.
研究1ではCO放射能により脳機能を現す脳血流量,酸素摂取が真値より過小評価されることが分かった.過小評価の大きさは15O2,C15O2のPET撮像に残存するC15O放射能の大きさに依存していた.また残存するC15O放射能を補正することにより真値とほぼ同じ値が得られた.研究2ではDARGプロトコルにおいてcount-based法によりOEF様画像を作成することができることが分かった.しかし定量画像に比べコントラスが小さい画像であった.また15O2ガスとC15O2ガスの投与間隔を短くすることで検査時間の短縮を試みた結果,検査時間を約120秒短縮できる可能性があることが分かった.
本研究により,DARGプロトコルのさらなる短時間化,簡便化が図れることがわかった.この結果により,DARGプロトコルを用いた臨床検査の普及が期待される.
今日,多くの製造業において技術・技能伝承が大きな問題となっている.化学工場においても各社が色々な取組みを行っているが,有効な方法はまだ見つかっていない.本研究では,まずプラント運転の実態把握のため,ある化学会社の2つの工場における運転員および関係者(113名)にアンケート調査を行った.その結果,多くの運転員が少人化・多能工化の中で,異常時の対応に不安を抱えながら運転に携わっていることや,スキル開発の道筋が見えないなどの現状が明らかになった.この結果を受けて,現場に蓄積された運転技術・技能(ノウハウ)を取り出して,スキル開発教育にいかす方法および仕組みについて考察した.
第2章では,プラント運転員の実情に関するアンケート調査の分析結果から運転員の育成に密接に関係する課題を抽出した.
第3章では,プラント運転のおかれている現状について考察を進め,運転員育成のための課題を明らかにした.この中で運転員のスキル開発モデルを作成すること,スキル評価を行うことの必要性を示した.
第4章では,運転ノウハウの抽出・蓄積・利用のための統一的手法について考察を進め,トラブル事例から運転ノウハウを取り出す手段として時系列解析を系統的に実行することを提案し,着眼点を示した.また,異常時のプラント運転をグラフ表現する方法として,プロセス状態遷移に着目したイベントツリーを考案した.ETOMチャートと名づけたこのチャートは,プラントの異常時のいろいろなシナリオを明示できること,各ステップにおける人とシステムのかかわりが明示できること,それゆえ人の負荷を評価することによって支援の検討が出来るなどの特徴があることを示した.
第5章では,暗黙知化した異常時の運転ノウハウをトラブル事例の時系列分析によって取り出す手法を示した.具体的にバッチプロセスのトラブル事例を用いて,運転ノウハウを取り出すケーススタディを行った結果をまとめた.この手法は運転ノウハウの取り出しにとどまらず,新しい改善活動の方法としても有望であることも示した.
第6章では,運転スキルを向上させる学習環境づくりとして,先に整備したスキル開発モデルに教材を結びつけ,不足する教材を明らかにした.またこれらの不足する教材を運転記録を蓄積して整備する.仕組みを提案し,プロトタイプシステムを試作してその効果を確認した.
第7章では,作業手順を学ぶのに効果の大きいビデオマニュアルの制作指針をとりまとめた.実際にこの指針に基づいてビデオマニュアルを制作し,使用者の評価を受けてその効果を検証した.
第8章では,本論文で得られた成果とともに今後の課題についてまとめた.
近年,機械装置の音響診断,携帯電話,ロボット音声対話,カーナビ等,多くのアプリケーションで「聞きたい音」だけを瞬時に取り出したいニーズが高まっている.これら背景から,近年,音源分離技術の研究が盛んに行われているが,実環境における不十分な分離性能や演算量増加に伴うリアルタイム実装の困難さなどの問題が指摘されている.これを解決するため,本研究では,高速かつ高精度なブラインド音源分離技術の提案およびそのリアルタイム実装に関して論じる.
まずはじめに,雑音環境下で混合音を分離可能な新しいブラインド音源分離マイクロホンを提案・開発する.本マイクロホンは単一入力・複数出力型の独立成分分析とバイナリマスク手法を組合わせたリアルタイム処理向けのブラインド音源分離アルゴリズムを基礎としており,本アルゴリズムを改造してDSP(デジタルシグナルプロセッサ)上にリアルタイム実装する.さらに,本マイクロホンへのリアルタイム実装上の問題を詳説し,本マイクロホンの実験的評価によって,本マイクロホンの有効性を評価する.
次に,本マイクロホンをさらに現実的な環境で使えるようにするために,拡散性雑音環境下で特に有効な新しいブラインド音源抽出法を提案する.本手法は主マイクロホンと参照マイクロホンの各組の信号を基に並列に動作する複数の周波数領域独立成分分析法,逆投影法,スペクトル減算を組合わせて構成されている.本論文では,これら手法の詳細について述べ,提案法を実装したマイクロホンを用いた様々な雑音環境下での評価実験から,提案法が従来法に比べて優れた性能を発揮することを示す.
ソフトウェア開発の初期段階において,開発に必要な労力(開発工数)を高い精度で見積もることが必須である.ただし,ソフトウェア開発は個別性が高いために,あらゆる開発プロジェクトに適合する万能の見積り方法は現時点では存在しない.本論文では,従来広く用いられてきた工数見積り方法である線形重回帰モデルによる見積り方法とアナロジーベース法それぞれに対し,開発プロジェクトの個別性を考慮した拡張を行った.これにより平均的な見積り精度の向上と見積りを大きく外すプロジェクトの低減を実現できた.提案する拡張方法の概略は次の通りである.
(1) プロジェクトの特性に応じたフィットデータの選定方法
本方法では,重回帰モデルに基づく工数見積り方法に対し,モデル構築のためのプロジェクトの集合(フィットデータ)を選定する手順を追加する.見積り対象プロジェクトの特性に基づいてフィットデータを選定することにより,個々のプロジェクト向けにカスタマイズされた重回帰モデルの構築を行う.
ソフトウェア工学における代表的な実験用データセットであるISBSGデータセットを用いた評価実験の結果,フィットデータの選定を行わない従来の重回帰モデルと比較すると,相対誤差MRE(Magnitude of Relative Error)の中央値が0.552から0.383へ,相対誤差MER(Magnitude of Error Relative)の中央値が0.457から0.381となり,見積り精度が向上した.
(2) 類似プロジェクトの特性に応じた見積り回避プロジェクトの選定方法
アナロジーベース法は,開発プロジェクトの個別性を考慮した見積り方法であり,見積り対象の開発プロジェクトに対し,類似するプロジェクト群を過去の実績データから選定し,それらの実績工数に基づいて開発工数を見積もる方法である.ただし,プロジェクトによっては,極端に見積り精度が低くなる(見積りに失敗する)ことが課題であった.
提案方法では,アナロジーベース法を拡張し,選定された類似プロジェクト群の特徴に基づいて,見積り精度が低くなるか否かを予測し,見積りを実施すべきか否かを判断する.見積りを実施すべきでないと判断されたプロジェクトは重回帰モデルによる見積りを行い,そうでないプロジェクトでは従来通りアナロジーベース法による見積りを行う.ISBSGデータセットを用いた評価実験の結果,常にアナロジーベース法を用いた見積りを行う場合と比べて, MREの中央値は最大で0.083,平均で0.011向上し,MREの相対誤差が100%を超えた(見積りに失敗した)プロジェクトの割合であるPred(100)が最大で0.058,平均で0.026減少し,見積りを大きく外すプロジェクトが減少した.
ソフトウェア開発の大規模化と短納期化への要求にこたえるには,適切な計画を立案すること及び開発の効率化による工数低減が重要となる. 計画立案はプロジェクト初期に予測した開発工数に基づいて行われるため,精度の高い開発工数予測が求められる. 従来,過去プロジェクトデータを用いて構築する重回帰モデルなどの多変量モデルによる開発工数予測が提案されている. しかし,(1)これらモデル構築手法の多くは欠損値を含まないデータの使用が前提となっているため,過去プロジェクトデータに含まれるデータ欠損が大きな問題となっている.
開発工数の低減には,大規模プロジェクトにおいて最も多くの工数がかかるテスト工程の工数低減が鍵となる. その手段として,テストよりも早期に実施可能であり,早期の欠陥検出に伴ってテスト工数低減が図れるレビューが注目されている. しかし,(2)欠陥修正に伴い必要となる確認テストと回帰テストの工数の低減に寄与しない欠陥ばかりをレビューで検出しても,テスト工数を効果的に低減できないという問題がある. 本研究では,開発工数の予測精度向上及びテスト工数低減を目的とし,上記の(1),(2)の問題を解決する.
まず,(1)の解決のために工数予測モデル構築に適した欠損値処理法の評価を行った. 評価実験では,複数の企業で収集された706件(欠損率47%)のプロジェクトデータに対し,欠損値補完法(平均値挿入法,k-nn法,CF応用法),欠損値除去法(無欠損データ作成法),重回帰モデルに特化した手法(ペアワイズ除去法)を適用し,重回帰モデルの構築を行った. 構築したモデルを用いて欠損のない143件のプロジェクト対して工数予測を行った結果,類似性に基づく補完法(k-nn法,CF応用法)を用いることで高精度のモデルが構築されることがわかった. さらに,欠損値処理法を用いた工数予測モデルにおけるプロジェクト件数と精度の関係を明らかにするために,同一のプロジェクトデータからプロジェクト件数の異なるプロジェクトデータを複数抽出し,同様の実験を行った. 実験の結果,プロジェクト件数が少ない場合(220件以下)には,無欠損データ作成法を用いることで高精度のモデルが構築されることがわかった.
次に,(2)の解決のために修正確認テスト工数の低減を効率的に行うコードレビュー手法の提案を行った. 提案手法では,レビューアがテスト工数を推定できる情報を用いることにより,欠陥が含まれていた場合に多くの修正確認テスト工数が必要となる部分を特定し,その特定箇所から優先的にレビューする. 提案手法により,テスト工程まで見逃すと多くの修正確認テスト工数が必要となる欠陥を早期に検出できる,すなわち,テスト工数の低減が期待される. 商用開発の実務経験者6名を含む18名の被験者の間で,提案手法とTest Case Based Reading,Ad-Hoc Readingを比較したところ,提案手法により多くの修正確認テスト工数が必要となる欠陥を比較対象とした手法よりも数多く検出できることを確認できた.
Heterogeneous broadband wireless access networks will be deployed in many areas. Recently, IEEE 802.11g has been dominant Wireless Local Area Network (WLAN) standard and widely used to provide high data rates in a limited area such as office, cafe, hotels, school and airport. On the other hand, the emerging mobile WiMAX (IEEE 802.16e) has gained serious attention as a means of providing wireless broadband access to mobile users in a wide area and it provides QoS for various applications. The 802.11 and 802.16e will become a key technology as means of an economically viable solution for providing wireless broadband access to mobile user. These two different wireless access technologies will be co-existed while complementing each other in the near future. Hence, a mobile node (MN) with dual interfaces will be likely to execute many handovers between 802.11g networks as well as between 802.11g and 802.16e networks with different IP subnets. Meanwhile, there is a huge demand for Voice over IP (VoIP) service over wireless network. VoIP applications are delay and loss sensitive application. An acceptable VoIP call must have a total end-to-end delay (E2E) not exceeding 150-200 ms. However, wireless access networks exhibit significant variations in packet delay. Furthermore, when moving to a network that offers a lower bit rate, a VoIP application may experience congestion situations with packet loss and service degradation. An acceptaptable VoIP call must have a packet loss not exeeding 5% . Therefore, preserving VoIP communication quality over wireless network is a challenging and important issue particularly in mobile wireless environment.
This dissertation presents an end-to-end handover management for VoIP over 802.11g networks as well as intermingled 802.11g and 802.16e networks considering wireless link condition and congestion state of both wireless networks. The handover management exploits Request-To-Send (RTS) retries and Round-Trip-Time (RTT) of 802.11g interface as well as Carrier-to-Interference-plus-Noise-Ratio (CINR) level and MN queue length of 802.16e interface as handover decision metrics. Our handover management implemented on transport layer controls handover according to handover decision metrics obtained through cross layer approach. Moreover, we also employ multi-homed MN that can support single-path and multi-path transmission for achieving seamless handover. Single-path transmission means that MN communicate with CN using single interface and multi-path transmission, on the other hand, means that MN sends duplicated packets to a CN using two interfaces for supporting seamless handover. Our proposed methods aim to preserve VoIP quality during handover between the networks with different IP subnets. We conducted simulation experiments to investigate the effectiveness of our proposed handover management using Qualnet 4.5. Our simulation results show that our proposed handover management can preserve VoIP quality during MN's handover between two 802.11g networks as well as between 802.11g and 802.16e networks.
本発表では,時空間高解像度撮影と露光量確保の両立を図る手法を提案する.
カメラを小型化しつつ高解像度の映像を得るためには,撮像素子の微細化(画素の高密度化)が必要になる.この撮像素子の微細化は,半導体製造プロセス技術の進展により実現されてきた.しかし,微細化が進むに従い,画素当たりの集光量が減少し,SN比が低下する.さらなる微細化に伴い,暗所のみならず,これまで露光量が十分であった照明環境下でも露光量不足が問題となる.また,動画撮影の高解像度化では,撮像素子から記録部への画素値の読み出しデータ量が増加する.しかし,実際の撮像システムでは,撮像素子や記録回路の動作周波数の制限により単位時間あたりの読み出しデータ量は制限される.このような,制限も高解像度化における課題となる.
本研究では,以上のような課題に対し,撮像過程と画像処理の組み合わせによるアプローチによって,時空間高解像度撮影と露光量確保の両立を図る手法を提案する.具体的には,以下の2つの手順から成る.
1. 異なる時空間解像度を持つ2種類の画像で,それぞれ時間と空間方向に露光量を確保し,読み取り速度を抑えて撮影する.
2. 1.で撮影した2種類の画像間で時空間情報を相互に補完し,時空間高解像度化した画像を生成する.
また,カラー撮影では,光の利用効率を高めるために,波長分離型の光学系を利用し,露出時間を長くしたG画像と,画素面積を大きくした低解像度高フレームレートのR・B画像を用いて露光量を確保する.RGB間に時空間の拘束条件を設け,時空間周波数特性の異なる各色画像間で時空間情報を相互に補完することで,高解像度高フレームレートのカラー動画像を生成する.
発表では,最初に撮像素子の構造について述べ,画像処理による高解像度化手法を概観し,課題について述べる.次に,提案手法の撮影方式と画像生成方式について説明した後,シミュレーションおよび試作カメラシステムを用いた実験結果を示す.最後に,本研究のまとめと考察を行い,今後の展望を述べる.
日本における地上デジタル放送は,2003年に東京,大阪,名古屋の三大都市圏で,2006年からは全国でサービスが開始された.日本の地上デジタル放送では,1チャネルの帯域で家庭向けのハイビジョン放送と,携帯端末向けのワンセグ放送が同時に伝送されており,用途に応じて選択して受信できる.従来はハイビジョン放送を移動体で受信することは困難とされてきた.その主な理由として,家庭での固定受信に比べて受信電力が低いこと,マルチパスの影響を受けやすいこと,そして移動に伴い受信電波が激しく変動することなどが挙げられる.
<p> まず,低受信電力とフェージングの問題を解決するために,複数アンテナで受信した信号を重み付け合成することによりアンテナ指向性を電子的に制御するアダプティブ受信システムを提案,開発した.提案アルゴリズムは,合成信号を基準として各素子の振幅と位相を調整する最大比合成方式であり,所望波電力を増大させ,マルチパス歪みを軽減することができる.開発した試作機を用いて,実フィールドで地上デジタル放送の受信特性を評価した結果,家庭での固定受信エリアとほぼ同等のエリア内でハイビジョン放送を安定的に受信できることを明らかにした.次に,高速移動受信時に生じる多重ドップラーシフトへの対策として,アレーアンテナを用いて静止受信信号を推定することにより,ドップラーシフトの発生そのものを抑圧するドップラーシフト補償方式を検討した.計算機シミュレーションで,規格化ドップラー周波数0.1以下のドップラーシフトをほぼ補正可能であることを明らかにした.さらに,静止受信信号を用いたアンテナ指向性制御を行うドップラーシフト補償型アダプティブ受信方式を提案した.2素子アレーアンテナを2組用意して,それらを離して配置することにより,ドップラーシフト補償効果とダイバーシチ効果を両立することが可能となった.開発した試作機を用いて室内で再現した多重ドップラーシフト環境で評価した結果,新方式は時速160kmでも安定受信でき,高速受信特性の飛躍的な改善を明らかにした.この結果,移動受信における主要課題である低受信電力,フェージング,ドップラーシフトを全て解決することが可能となった.
最後に,提案システムをハードウェア化する際に生じる問題の解決に取り組んだ.アンテナ素子間に位相誤差が生じると,ドップラーシフト補償の精度が大きく劣化することが明らかになった.製品製造時に素子間位相誤差を調整することは不可能であるため,実際の放送波を受信しながら自動補正する機能が必要となる.そこで,地上デジタル放送で用いられるOFDM伝送方式の特徴を利用してドップラーシフト補償処理後の信号の位相変動を検出し,その結果からアンテナ素子間位相誤差を自動的に検出・補正する方式を提案した.計算機シミュレーションにより,アンテナ素子間位相誤差に起因する特性劣化を補償可能となることを明らかにした.この結果,提案システムのハードウェア化・製品化に向けた課題を解決することが可能となった.
We developed a cataract screening system using image processing techniques. The goal is to solve problems about cataract diagnosing under limited health facilities. Toward this end, we will use low-cost and easy-to-use equipments such as a digital camera for cataract diagnosis so that anyone can conduct diagnosis easily. The increasing number of cataract sufferers is a serious problem because cataracts are a leading cause of blindness in the world. To avoid blindness from cataracts we need to detect them early. Today, ophthalmologists use slit lamps to diagnose cataracts. This equipment is expensive and requires special training to use it. Unfortunately, a lot of developing countries have a limited number of ophthalmologists and health facilities, while a lot of cataract sufferers live in developing countries. In our system, once a user simply takes a patient photograph of an eye, the system will automatically analyze the image and distinguish between serious and non-serious conditions. In the image analysis, we have to treat images taken under various kinds of conditions and the conditions strongly affect their appearance. Therefore, in order to conduct diagnosis robustly using those images, we take into account the information inside a pupil area including specular reflections and texture appearance. The specular reflections in a pupil area are mainly caused by a flash light attached with a digital camera. They are easily extracted in an image even if illumination conditions are varied. And there is an important characteristic that the number of reflections inside a pupil area can be used for screening cataract patients. Finally we exploit not only the specular reflections but also texture appearance in a pupil area and we conduct a robust screening of cataracts.
In this study, I propose a novel blind speech enhancement method for hands-free speech recognition and telecommunication systems. Also, I establish the real-time algorithm of the proposed method and develop a hands-free spoken-oriented guidance system with the proposed real-time algorithm. Furthermore, I theoretically analyze the musical noise problem inherent in nonlinear signal processing such as spectral subtraction (SS) that is involved in the proposed method.
A hands-free speech recognition system and a hands-free telecommunication system are essential for realizing an intuitive, unconstrained, and stress free human-machine interface. In an actual acoustic environment, however, not only user's speech but also interference source signals such as background noise and interference speech are existing. Such interferences disturb high-quality speech recognition or telecommunication. Therefore, a source extraction method is needed to realize high-quality hands-free systems. Particularly, blind source extraction methods have been spotlighted. Since blind source extraction does not require any supervision, it can be applied to wide-area applications.
Independent component analysis (ICA) is a successful candidate of blind source extraction methods. There have been many studies on ICA, and they have provided strong evidences that ICA can extract blindly source signals from noisy observations. However, almost all studies on ICA only treat the limited case, i.e., all sound sources are point source like speech. Such an acoustic condition is very unrealistic; interferences are often widespread in an actual world.
In this study, first, I theoretically and experimentally analyze the behavior of ICA under widespread noise condition. As a result of the analysis, it is clarified that ICA is proficient in noise estimation rather than in speech estimation under widespread noise condition. Based on this fact, I proposed the blind spatial subtraction array (BSSA) that utilizes ICA as an accurate noise estimator. In the proposed BSSA, noise reduction is carried out by subtracting the estimated power spectrum of noise via ICA from the power spectrum of the noise observations. This combination of ICA and power-domain SS enables us to reduce widespread noise efficiently. Also, the proposed BSSA comprises various effective properties, i.e., robustness against permutation problem, reverberation, and microphone-element errors. The effectiveness of the proposed BSSA is shown via experiments in not only an experimental room but also an actual railway-station. Next, I establish the real-time algorithm of the proposed BSSA, and I develop a hands-free spoken-oriented guidance system. The developed hands-free system with the real-time BSSA can achieve enough speech recognition performance, particularly over 80% word correct.
Next, I theoretically conduct an analysis on the musical-noise problem on the basis of higher-order statistics (HOS). Musical noise is an artificial distortion originating from nonlinear signal processing such as SS. Since musical noise makes users unpleasant, less musical noise output is preferable for human-hearing applications. Unfortunately, the proposed BSSA suffers from the musical-noise problem because BSSA comprises SS in its own structure. Therefore, I give an analysis on the amount of musical noise generated via methods of integrating microphone array signal processing and SS such as the proposed BSSA, on the basis of HOS. As a result of the analysis, I reveal that a specific integration structure can mitigate musical noise. This result is supported by computer simulations and a subjective listening test.
近年、実験では観察が困難な詳細な分子の挙動を知るために、計算機シミュレーションが重要な役割を果たすようになってきた。本研究では、生体分子中の水和安定性の問題、および、反応遷移状態の分子の安定性の問題について、それぞれ、統計力学と量子化学に基づく計算機シミュレーションを用いて解析を行った。
第1の問題は、タンパク質非極性キャビティ内部における水分子の安定性についての研究である。タンパク質非極性キャビティ内部に水分子が安定に存在するか否かについて、相反する実験結果がこれまで報告されている。この問題に対して、統計力学に基づく分子動力学計算と熱力学的積分法を用いることで、キャビティ内部に水分子を挿入することに伴う自由エネルギー変化を見積もり、熱力学的な観点から解析を行った。これまでの研究により、非極性キャビティのサイズが大きいほど安定に水分子が存在する可能性が高いことが示唆されているため、キャビティサイズが最大級のタンパク質であるIL-1b、AvrPphB、trp repressor、hemoglobinの4つについて解析を行った。計算結果は、全ての場合について、キャビティが水和している状態は不安定であることを示した。より小さなサイズのキャビティでは安定に水和する可能性はさらに低いと考えられるため、本研究の結果は、一般にタンパク質の非極性キャビティが水和していないことを示唆する。さらに、シミュレーション中の分子構造を観察すると、水和した非極性キャビティは崩れやすく、キャビティ表面が極性に転じやすいことがわかった。このことは、なぜ、大きなサイズの非極性キャビティは稀にしか存在しないかを説明すると考えられる。
第2の問題は、化学反応における立体選択性に関する研究である。分子Acutifolone Aの二量化Diels-Alder反応では、8つの可能な反応生成物が全て同率で生成されるわけではなく、立体選択性があることが知られている。しかし、その立体選択性の原理を実験で解析することは困難である。この問題に対して、量子化学計算を用いることで、8つの遷移状態構造の安定性を評価した。その結果、反応は最も安定な遷移状態を経て進んでおり、主に立体障害によって立体選択性が決まっていることが分かった。
このように、計算機シミュレーションを用いることにより、実験では観察困難な知見を得ることができた。このような結果は、生体高分子の構造安定性や反応選択性の理解に役立つと考えられる。
近年のデジタルカメラやレンジファインダ等のデジタル計測機器の普及により,現実環境の計測により得られた多次元画像(静止画像,動画像,奥行き画像に基づく三次元モデル)をホームページやデジタルミュージアム等において利用する機会が多くなっている.しかし,計測時における計測機器と計測対象間のオクルージョンにより,各画像に意図しない物体が写り込んだり欠損が生じたりするため,そのままでの利用が難しい場合がある.このため,本論文では,多次元画像データの利用価値を高めるため,パターン類似度に基づくエネルギー最小化による統一したアプローチにより,静止画像,動画像,三次元モデル中の不要物体を取り除き,その欠損領域を違和感なく修復する手法を提案する.なお,本研究では,多次元画像の中でも,単眼カメラにより撮影された静止画像,全方位カメラにより撮影された全方位動画像,頂点と面から構成される三次元メッシュモデルを対象とする.
本発表では,まず静止画像の欠損修復手法について述べる.静止画像の欠損修復に対しては,従来,欠損領域と欠損領域以外の領域(データ領域)間のパターン類似度に基づくエネルギー最小化による欠損修復手法が既に提案されている.しかし,従来手法では,以下に挙げる2つの問題により不自然なテクスチャが生じやすい. (1)データ領域におけるテクスチャパターンの種類に限りがあるため,違和感のない修復に最低限必要なパターンがデータ領域に存在しないことが多い. (2)欠損領域とデータ領域間のパターン類似度のみによる指標は自然なテクスチャの再現条件としては不十分である.このため,本研究では,(1)の問題に対して,テクスチャの明度変化を許容したパターン類似度を用いることで表現できるテクスチャパターンの拡張を行う. (2)の問題に対しては,類似したテクスチャは近傍に存在する可能性が高いという性質(テクスチャの局所性)を表すコスト関数を用いることで不自然なテクスチャの生成を抑制する.実験では,100枚の画像に対して欠損修復を行い,定性的・定量的評価により提案手法の有効性を示す.また,これらの評価手法の信頼性について考察を行う.
次に,動画像の欠損修復手法について述べる.動画像の欠損修復に対しても,従来,パターン類似度に基づくエネルギー最小化による欠損修復手法が既に提案されている.しかし,従来手法では,複数のフレーム間において物体の見え方が大きく変化しないことを前提として修復を行っている.このため,全方位カメラの死角により生じる全方位動画像中の欠損領域を対象とした場合,欠損領域にあたるテクスチャの見え方はフレームごとに大きく変化することから,従来手法による修復は難しい.そこで,本研究では,まず欠損領域周辺の形状とカメラの位置姿勢を考慮することで,見え方の違いを補償するためにテクスチャを変形補正し,変形した画像上において修復の事例として用いるデータ領域の限定を行う.次に,欠損領域と限定したデータ領域間のパターン類似度に基づくエネルギー関数を最小化することで,違和感のない修復を行い,最終的に不可視領域のない全天球映像を生成する.実験では,300フレームからなる動画像に対して欠損修復を行い,不可視領域のない全天球動画像を生成することで,提案手法の有効性を示す.
最後に,三次元モデルの欠損修復手法について述べる.三次元モデルの欠損修復に関しては,従来,欠損修復をパターン類似度を用いた全体最適化問題として扱った手法は提案されていない.従来の欠損修復手法として,欠損領域周辺の表面形状と類似した形状を同一物体上の欠損領域以外の領域(データ領域)から探し,逐次的にコピーすることで修復する手法が提案されている.しかし,逐次的な修復では局所形状の接続部に不連続が現れ,違和感が生じる場合が多い.そこで,本研究では,欠損領域とデータ領域間の局所表面形状の類似度を用いてエネルギー関数を定義し,それを最小化することで違和感なく形状を修復する.実験では,3種類の三次元モデルに対して欠損修復を行い,定性的評価により提案手法の有効性を示す.また,エネルギー関数におけるパラメータの結果への影響について考察を行う.
運動や意欲、認知機能の調節に関与している神経伝達物質であるドーパミンの脳における動態を調べるために、[18F]FDOPAを用いたPET(Positron Emission Tomograph、陽電子断層撮影)検査が行われており、主にパーキンソン病等の神経疾患の研究・診断に利用されている。 [18F]FDOPA PET検査では取得した画像をドーパミンの動態に基づいたモデルで解析することで推定される生理学的パラメータが診断・評価に利用されている。 [18F]FDOPA PET検査画像の解析において主によく用いられているPatlak法では、解析の際においている仮定と実際の神経における[18F]FDOPAの動態の間に乖離があり、その乖離が大きくなることにより、推定された取り込み定数Kiの値に大きなバイアスが生じる可能性がある。一方で、パーキンソン病の患者の線条体におけるドーパミン神経ではドーパミン合成能・貯蔵能の低下、ドーパミン代謝の亢進が起こるという知見が得られており、[18F]FDOPA PET検査及び検査で取得したデータから推定したパラメータはこれらの変化を感度よく捉えられることが望まれる。
本研究ではPatlak法で無視されているドーパミンの代謝及び代謝産物の組織外への流出が推定される取り込み定数に及ぼす影響、及び、既存解析法で推定した生理学的パラメータのパーキンソン病で起こる変化に対する感度の評価を目的とした。本研究ではドーパミンの動態における変化について詳細に評価するため、ドーパミンの動態を詳細に記述したコンパートメントモデル(Detailed FDOPA kinetic model, DF model)を構築し、サルに対して[18F]FDOPA PET撮像を行って取得した放射能時間曲線(Time-Activity Curve, TAC)を基にして、ドーパミン合成能、貯蔵能、ドーパミン代謝、代謝産物の組織外への流出が変化したときの[18F]FDOPA PETデータをシミュレーションした。さらに、シミュレーションしたデータを[18F]FDOPA PETで最もよく利用されているPatlak法、神経受容体の解析に用いるLogan法、及び、近年、熊倉らにより提案されているKumakura法で解析し、得られた生理学的パラメータを比較した。ドーパミン代謝及び代謝産物の組織外への流出が変化した時のTACのシミュレーション及びそれらのTACのPatlak法による解析により、本来Patlak法において仮定をおいて無視しているドーパミンの代謝及び代謝産物の流出の影響を受けて、推定される取り込み定数の値が変化することがわかった。また、パーキンソン病で起こるとされる変化が起こったときのTACのシミュレーション及び解析においては、 Kumakura法で推定されるklossがパーキンソン病の初期段階で起こるドーパミンの貯蔵能の低下及び代謝亢進を最も感度よく捉えられることが示唆された。
本発表では、まずPET、パーキンソン病、及び、その研究、臨床診断に使われている[18F]FDOPA PETについて紹介する。そして、本研究でシミュレーションに用いたDF model及びDF modelを用いたシミュレーション、解析手法を紹介し、本研究で行った評価の方法、評価で得られた結果及びそれに関する考察を論じる。最後に、行った評価を総括し、[18F]FDOPA PET検査によるパーキンソン病の診断において、選択するべき解析法及び生理学的パラメータについて論じる。
This presentation would consist of following parts.
近年,ソフトウェアに含まれる秘密の漏洩を防止することの必要性が増大しており,エンドユーザによるソフトウェアシステムに対する攻撃を妨げることが急務となっている.従来,多種様々なソフトウェア保護技術が提案されてきたが,これら多くの技術をどのように使い分け,もしくは併用すべきかについての系統的な方法は,ほとんど議論がされていない.
本論文では,ソフトウェアシステムの系統的な保護を目的として,まず,エンドユーザによるソフトウェアシステムに対する攻撃方法とその対策について整理し,その結果に基づいて,ソフトウェアの各開発工程において段階的にプロテクション技術を適用するためのガイドライン(段階的プロテクション)を提案する.
次に,段階的プロテクションの実施手順において重要となるソフトウェア難読化に着目し,ソフトウェア難読化手法を適材適所に適用するための枠組み(難読化フレームワーク)を提案する.提案フレームワークでは,攻撃者の攻撃におけるゴールを定義するとともに,ゴール達成に必要なサブゴールを,ゴール分解により求めていくことでゴール木を生成する.そして,得られたゴール木の全ての末端のサブゴールについて,その達成を妨げるのに必要な難読化手法を選定する.ケーススタディとして,秘密を含む典型的な Digital Rights Management(DRM) ソフトウェアの1つである cryptomeria cipher (C2) 暗号プログラムにおいて,復号鍵を隠蔽するためのゴール木を生成する事例を通して,多数の難読化法を適材適所に適用できることを示した.
さらに上記の難読化フレームワークにおいて,ゴール木の各ノードを構成する攻撃者の行動に着目すると,全ての行動は,プログラム中から秘密情報,もしくは秘密情報の発見の手がかりとなる情報を探す,といった行動であり,ゴール木は事実上手がかりの連鎖を表す木となっている.そこで,プログラム中の攻撃の手がかりを網羅的に列挙し,それらを難読化によって隠蔽するため,フレームワークの拡張を行う.これにより,秘密情報とその手がかりとの関係,及び,手がかり間の関係を,アルゴリズム,ソースコード,バイナリの3つの抽象レベルに分けて記述し,各レベルにおいて難読化により手がかりを隠蔽することで,秘密情報の発見を困難にできる.
線条体は試行錯誤による学習を行っていると考えられている.線条体は大脳基底核の入力部であり,皮質からグルタミン酸,黒質からドーパミンの投射を受けており,これらの入力によって皮質線条体間のシナプス強度の長期変化(シナプス可塑性)を引き起こすことが知られている.このシナプス可塑性が試行錯誤型学習の根幹となすことが考えられているが,これまでの実験では相反する結果が報告されており,その特性や機構は統一的に理解されるに至っていない.特に,その入力タイミングへの依存性や,ドーパミンがもたらす影響の作用機構は,様々な要素が複雑な絡み合っているため実験のみですべてを解き明かすのは困難を伴う.そこで我々はシナプス可塑性の背後にある機構を理解するために,実験及びレベルの異なる二つのシミュレーションを行った.本発表では特にシミュレーションとその結果について述べる.
我々は線条体シナプスのタイミング依存可塑性(STDP)の背後にあるカルシウム変化のメカニズムを明確にするために,現実的な形態を備えた線条体ニューロンモデルを構築し,スパイクタイミングに依存する細胞内カルシウム濃度変化をシミュレーションにより調べた.その結果,線条体で報告されている相反する二つのスパイクタイミングシナプス可塑性は,NMDA 型グルタミン酸受容体よりもAMPA 型グルタミン酸受容体の影響を強く受けたときに再現できることが予測できた.さらにカルシウム応答へのドーパミンの影響を調べた結果,ドーパミンとその入力タイミングによって,カルシウム応答の皮質入力と線条体活動のタイミングに対する依存性が異なり,ドーパミンとそのタイミングがSTDP の特性を調整していることが予測された.
次に線条体シナプス可塑性を実現している細胞内シグナル伝達機構を解明するために,その動力学モデルを構築し,様々な条件下における細胞の応答をシミュレーションによって予測した.またそのモデルが持つ力学的特性の解析を行った.その結果,相対分子量32000 のドーパミンおよびサイクリックAMP-調節性リン酸化タンパク質(DARPP-32) のリン酸化がカルシウム入力強度に応じて双方向に変化し,さらにDARPP32 を含むポジティブフィードバックループの双安定性がドーパミン入力による長期減弱から長期増強へのスイッチの役割を果たしていることが分かった.最後にこれら二つのモデルを結合した.その結果,生理的な細胞への入力によるカルシウム変化は,ピーク値よりも漏れのある積算の方が,よりシナプス強度の変化を近似しており,その積算はカルシウム/カルモジュリン依存性キナーゼII (CaMKII) によって実現されていることがわかった.
以上のことより本研究では,DARPP-32の関与するポジティブフィードバックループがドーパミンシグナルを増幅し,CaMKIIが生理的入力によるカルシウム増加の漏れのある積算を行い,これらが線条体で見られる多様なシナプス可塑性の根底をなす分子機構であることが分かった.
人間の力学的な作業の補助を行うことを目的として,アーム手先が任意の2次元状の案内面に拘束され,その面内では人間が与えた操作力により自由に動作可能な"作業補助アーム"を新たに開発した.従来,作業補助を目的としたパワーアシスト装置の研究は多いが,パワーアシストはモータにより補助力を与えるので,安全性の観点からはモータが危険源になる点が問題である.作業補助アームは関節をモータで駆動しないので,本質安全性の点で有利である特徴を持つ.本論文では,作業補助アームの原理と機構,作業補助アームのキーパーツである無段変速機(CVT)の詳細,試作機の設計と実験結果についてまとめた.
はじめに作業補助アームを提案し,その基本的な原理について述べる.作業補助アームは,CVTと差動歯車を組み合わせた"線形和機構"を組み込んだ平行リンク式の3関節垂直多関節型アームの構造を持つ. CVTの変速比は,アームの関節角度の関数であるヤコビ行列と,設定した案内面に立てた法線方向ベクトルを用いて計算される. CVTの変速比を制御することで,設定した案内面に沿った方向に操作力が加わわるとその方向に動作するが,案内面からはずれる方向に外力が加わっても動作しない性質が得られる.
次にCVTを設計する際に必要になる各関節CVTの変速比の範囲,および各関節の変速比を変化させる速度である変速比速度の範囲を導き,具体的なCVTの構造を検討する. 3関節それぞれのCVTの変速比範囲相互の比,並びに変速比速度最大値相互の比は,根本の関節軸から順にアームのリーチ,上腕の長さ,前腕の長さの比となることがわかった.この知見は作業補助アームの設計に活用できる.また作業補助アーム用のCVTとして,回転および並進運動するローラとホイールから構成される摩擦駆動方式のCVTを提案した.このCVTはローラに対するホイールの舵角を制御することで変速する. CVT評価のために製作したCVT試験機による特性測定結果を示す.
最後に作業補助アームの原理を検証し,機能と性能を調べるために開発した, 試作機の仕様,機構設計について述べる.試作機による案内面生成実験により,作業補助アームが設定した案内面を生成できることを実験的に確認した.また試作機の設計および実験結果をもとに,負荷容量とアームのリンク長からなる作業補助アームの性能評価指標を提案した.
高齢者や障害者の運動支援のため,パワーアシストシステムの研究は,ロボット技術における重要な研究分野の一つとなっている.パワーアシストとはアクチュエータの補助動力を用いて動作における操作者の運動能力を補助する(負荷軽減・能力増大を行う)技術である.高負荷の組立作業や野外活動の支援をはじめ,最近は福祉医療分野への応用が期待されているアクチュエータの制御により操作者の負荷を増加させることも可能である.現在,様々なパワーアシスト装具が開発されているが,多くが関節トルクレベルでの補助を目的としている.ここで,筋肉の機能診断,筋力テストやスポーツトレーニングなどへの応用を考えたとき,パワーアシスト装具は特定の筋肉のみを補助できることも期待されている.しかし,パワーアシスト装具で直接制御できるのは関節トルクであり,特定筋肉の補助(阻害)を行うためには,複雑の筋肉間の非線形な関係を踏まえた上でパワーアシスト装具の出力を決定する必要がある.
本研究は選択された対象筋肉の負荷をパワーアシスト装具を用いて局所的に制御することを目標とするピンポイント筋力制御(Pinpointed Muscle Force Control;PMFC)手法を提案する.対象とする筋肉を明示的に決定し負荷を操作することで,筋肉の機能診断や筋肉レベルのピンポイントトレーニングを実現することを目指している.計測された関節トルクから各筋肉の発揮力を推定した上で,指定した対象筋肉について設定筋力の実現可能性を筋力の最適化原理に従って判断する.可能であると判断されればそれを実現するためのパワーアシスト装具の発揮力を決定する.提案手法を用いてシミュレーションと実機実験を行い,二つのパワーアシスト装具を用いることにより,対象筋肉の制御可能を示し,制御自由度から非対象筋肉の影響についても示す.計測された目標筋肉の筋電変化がシミュレーションでの推定値と比較することにより提案するピンポイント筋力制御の有効性を証明した.
Extracting only the essential sound attributes from sounds is one of the fundamental issues of computational auditory scene analysis. Especially, the estimation of sound source characteristics is difficult since the corresponding physical quantity is not defined. This study proposes two kinds of music information retrieval methods; one is instrument feature extraction assuming the timbre space and the other is the simultaneous estimation of three elements of sound with a probabilistic model of sounds.
In the former part of this presentation, an instrument feature extraction method with a combination of linear projection methods is introduced. For monophonic music instrument identification, various feature extraction and selection methods have been proposed. Although raw power spectra have enough information for accurate instrument identification, their dimensionality is too high and redundant. It is important to find non-redundant instrument specific characteristics that maintain information essential for high-quality instrument identification to apply them to various instrumental music analyses. As such a dimensionality reduction method, two linear projection methods is introduced: principal component analysis (PCA) and local Fisher discriminant analysis (LFDA). Additionally, the reason why LDA and LFDA algorithms are suitable for instrument identification is explained by the geometrical analysis of those algorithms. After experimentally clarifying that raw power spectra are actually good for instrument classification, the feature dimensionality is reduced by PCA followed by LFDA. The reduced features achieved reasonably high identification performance that is comparable or higher than those by the power spectra and those obtained by existing studies. These results suggest that the proposed method, PCA-LFDA can successfully extract low-dimensional instrument features that preserve the characteristic information of instruments.
In the latter part, a probabilistic model that represents our assumption with an extension of the source-filter model is introduced to estimate three elements of sounds: pitch, loudness and instrument-specific characteristics. The source-filter model, originally devised to represent a sound production process, has been widely used to estimate both of the source signal and the synthesis filter. This model suffers from an indeterminacy problem. To resolve it, three constraints are included in the model: harmonics, smoothness and sparseness. In detail, the source signal and synthesis filter contain the time-varying fundamental frequency and amplitude information and quasi-stationary instrument-specific information, respectively in the source-filter model. A probabilistic model that represents those assumptions with an extension of the source-filter model is constructed. For learning of model parameters, an EM-like minimization algorithm of a cost function called the free energy is introduced. Reconstruction of the spectrum with the estimated source signal and synthesis filter and instrument identification by using the model parameters of the estimated synthesis filter are performed to evaluate the proposed approach, showing that this learning scheme could achieve simultaneous estimation for the source signal and the synthesis filter.
Proteins interact with other proteins or biomolecules to perform their functions, and protein complexes are the fundamental functional units of these macromolecular systems: protein interactions play a key role in many cellular processes. Therefore, elucidating protein-protein interactions (PPIs) leads to understanding the protein functions required for various biological processes in cells. More or less over the past 10 years, vast amount of protein-protein interaction data has been generated by high-throughput methods for detecting protein interactions. However, there being no complete and accurate detection method, each experimental strategy generates a significant number of false-negatives and false-positives. Especially, experimental methods which identify protein complexes such as Affinity purification-mass spectrometry (MS) detect non-direct interactions i.e."prey-prey" interactions. These false-positives are a serious problem because they cause erroneous results and misleading conclusions.
The goal of this dissertation based on above background is to predict and annotate certain protein complexes from PPI network, more specifically i) to analyze protein complexes from different aspects and ii) predict the conformation in protein complexes. In analysis on human PPI network 1,264 protein complexes were predicted by finding densely connected regions with their cluster properties in the network, and these predicted complexes were annotated and evaluated using integrated data such as literatures and research papers, ternary structures, descriptions of protein, localizations, expression profiles etc. The study on Arabidopsis proposes a method to predict the conformation of protein complexes by using domain-domain interactions (DDIs). As the first step, we extracted 312 statistically significant DDIs out of 1,162 DDIs underlying 3, 118 protein-protein interactions (PPIs). Next, 67 protein complexes were obtained by protein interaction network analysis. Finally, we discussed the conformation of protein complexes based on DDI information extracted in the first step.
The growing interest in practical NLP applications such as question answering, information extraction and multi-document summarization places increasing demands on the processing of relations between textual fragments such as entailment and causal relations. Such applications often need to rely on a large amount of lexical semantic knowledge. For example, a causal (and entailment) relation holds between the verb phrases "wash something" and "something is clean", which reflects the commonsense notion that if someone has washed something, this object is clean as a result of the washing event. A crucial issue is how to obtain and maintain a potentially huge collection of such event relation instances.
Addressing the issue of acquiring semantic relations between events from a large corpus, we first argue the complementarity between the pattern-based relation-oriented approach and the anchor-based argument-oriented approach.
We then propose a two-phased approach, which first uses lexico-syntactic patterns to acquire predicate pairs and then uses two types of anchors to identify shared arguments. The present results of our empirical evaluation on a large-scale Japanese Web corpus have shown that (a) the anchor-based filtering extensively improves the accuracy of predicate pair acquisition, (b) the two types of anchors are almost equally contributive and combining them improves recall without losing accuracy, and (c) the anchor-based method also achieves high accuracy in shared argument identification.
ヒトの運動機能のメカニズムを解明するため、近赤外分光計測画像法(NIRS)や機能的核磁気共鳴画像法(fMRI)などの非侵襲な計測手法を用いて脳活動の計測が盛んに行われている。さらに近年、複数の計測信号から運動や知覚を予測するアプローチを用いることで、さらに詳細な情報表現を調べることが可能となってきた。しかし、時間的に変化するような詳細な運動情報を抽出した試みは少ない。
本発表では、NIRSおよびfMRIを用いてヒト運動時の脳活動を計測し、詳細な運動情報の抽出を試みた結果を報告する。はじめにNIRSを使い、異なる強さを持つ手指筋出力時系列情報の再構成を行った。これまでのNIRSを使った研究では二値情報の予測が多かったが、信号の中から筋出力と関連がある情報を効率的に選ぶスパース線形回帰を用いることで、より精度の高い筋出力の再構成が可能となった。次に、空間分解能の高いfMRIを用いて、使用する指は同じだが順序が異なる二つの指運動系列を実行している時の脳活動の予測を行った。これまでのfMRIでの研究では、筋や運動のパターンを予測することはできていたが、複数のfMRI信号を組み合わせることで運動系列情報も予測可能であることが確認された。
これら二つの実験結果は、非侵襲脳活動計測手法のNIRSとfMRIからの運動情報の予測が可能であることを示唆するものであり、将来的にはヒト運動機能の解明や、脳活動から機械や情報機器を操作するブレインマシンインターフェースへの応用が期待できると考えられる。
近年,豊かな音声コミュニケーションを実現する技術のひとつである声質変換 (VC) の研究が盛んに行われている.この技術は,元話者と目標話者の結合確率密度を表す混合正規分布モデル (GMM) を変換モデルとして用いることで,元話者の声質を目標話者の声質へと変換することができる.しかし,従来のVCは変換音声の品質が不十分であり,また変換モデルの学習の柔軟性が低くため,実用が難しい.柔軟な変換モデル構築を実現するVCとして,固有声に基づく声質変換 (EVC) がある. EVCでは,事前にある特定の話者と複数の事前収録話者の同一内容発話を用いて固有声に基づくGMM (EV-GMM) を学習し,任意話者の少量の発話から適応により変換モデルを構築する.この技術は特定話者から任意の話者への変換 (一対多EVC) 及びその逆の変換 (多対一EVC) を実現したが,実用を考慮した場合,変換モデル構築の柔軟性はまだ不十分であり,また十分な音質の変換音声を得ることができない.したがって,変換性能を改善および柔軟な変換モデル構築を達成することは実用的なVCを実現するために重要な課題となる.
本研究では,上記の2つの課題に取り組む.各課題における問題点と解決のためのアプローチについて以下に示す.
1) 変換音声の品質の改善
はじめに音源モデルの改善に取り組む.従来のVCおよびEVCでは,位相制御パルス信号/雑音信号切り替え型の単純な励振源を音源モデルとして用いている.この信号は単純すぎるため,実際の人の音源信号を適切に表現できず,その結果変換音声の品質の低下を引き起こす.これを解決するために,高品質分析合成系STRAIGHTで用いられる混合励振源を導入する.この音源モデルは位相制御パルス信号と雑音信号を周波数帯域毎に重み付き和によって生成される.次に,EV-GMMの性能改善に取り組む.従来のEV-GMMには事前収録話者間の変動情報が含まれており,これにより品質が低下する.これを改善するため,EV-GMMのための適応学習を提案する.この手法により話者間の変動情報が除去され,高品質なEV-GMMが得られる.そして,EVCのさらなる品質の向上のため,STRAIGHT混合励振源,適応学習,及び従来のVCにおいて品質の向上が確認された手法である系列内変動を考慮した最尤変換法を導入したシステムを提案する.実験により,上記手法により音質及び話者性が改善することを示す.
2) 変換モデル構築の柔軟性の改善
変換モデル構築の柔軟性を改善する手法として,新たなEVCの枠組みである多対多EVCを提案する.この枠組みは任意の元話者から任意の目標話者への変換を達成する枠組みである.この変換ではひとつのEV-GMMを用いて多対一EVCと一対多EVCを参照話者と呼ばれる特定の話者を通じて順番に実行することで実現する.また,変換の際に参照話者を隠れ変数とみなすことで効果的に変換を行うことができる.さらに,この変換法から,我々は多対多EVCのためのEV-GMMに対して非パラレルデータセットを用いて再学習する枠組みを提案する.実験により,これらの提案法が適切に動作することを確認する.
Currently, WMN attracts attention to provide the public wireless Internet connectivity. In the near future, existing WiFi networks and emerging WMN complementarily integrate their coverage area, and as a result realize the vision of wireless everywhere (ubiquitous WiFi network). Additionally, next generation applications are assumed to require stable communication quality. For instance, Voice over IP (VoIP) as post-cellular phone, and sharing large files (bulk transfer) as network storage are emerged. Then, mobile nodes (MNs) expect to access the Internet using such applications through ubiquitous WiFi network in mobile situation. Therefore, MNs demand to preserve stable communication quality of next generation applications at any time during movement. Our ultimate goal, therefore, is achieving this demand.
To answer the demand, preservation of communication quality experienced by an MN is important. In the Internet, since the number of MNs is extremely larger at the edge than at the core, intelligent feature to deal most processes involved in communication are given to end hosts. In addition, network independently manages themselves to hold high fault tolerance. Therefore, toward our ultimate goal, our study enhances quality preservation functions at the edge of the Internet and in decentralized manner.
To achieve the our goal, (a) omnipresent sufficient connectivity, and (b) preservation of communication quality during movement are essential. In requirement (a), since communication quality of WiFi network gets worse as the distance from AP is larger, coverage area should be appropriately integrated to prevent that an MN experiences deterioration of communication quality. Our study attempts to make APs autonomically control their own coverage area. Actually, all APs autonomically detect their own coverage area with desirable communication quality, and appropriately integrate them. On the other hand, in case of (b), since coverage area of each AP is relatively small, an MN has to surely traverse many APs without deterioration of communication quality. To achieve this, Our study enables MNs to reliably and promptly select an AP with better performance and appropriately switch an AP avoiding deterioration. In this presentation, these approaches are introduced. Finally, our study answers following questions: how an AP know communication quality inside its own coverage area, how an MN investigates communication quality of an AP in advance, and how an MN reliably detect deterioration of its own communication quality in advance.
近年,ソフトウェアの果たす社会的役割は重大になっており,ソフトウェアを高品質に生産することが必須の課題となっている.そのためには,ソフトウェアの開発プロセスの実態を定量的に計測・把握し,問題が生じた場合に対策を行う,いわゆる「定量的プロセス管理」が重要である.
本研究では,ソフトウェア開発における定量的プロセス管理に関する二種類の作業,すなわち,定量データの測定計画立案と,開発プロセスの定量的評価・分析の実施に着目し,これら各作業に対する支援手法の提案と評価を行った.
第一に,ソフトウェア開発現場において,定量データを用いたプロセス管理がどのように実施されているかを確認するため,ある国内のソフトウェア開発組織を対象に定量データの利用調査を行った.調査の結果,組織標準として用意されている定量データの多くはプロジェクト管理に有効に活用されている一方で,ある種のデータはあまり利用されていないことを確認した.また,管理者は,個々のプロジェクトの実態にあわせて,収集するデータの個数や種類などの調整を行っていることも確認した.以上の調査結果をもとに,定量的プロセス管理の実践を支援する際に検討すべき課題を具体的に整理した.
第二に,定量データを用いた開発プロセスの管理に関して,その管理計画の作成を支援する枠組みを提案し,システムを構築した.提案する枠組みでは,プロセス管理に用いる定量データの測定・分析活動をプロジェクトの状況にあわせて体系的に調整するための手法を示した.また,この枠組みのもとで,開発プロセス,およびその管理プロセスを容易に策定できるよう支援するシステム AQUAMarine を開発した.ソフトウェア開発組織のプロジェクト管理者を対象に AQUAMarine のレビューを行い,プロジェクト管理計画立案作業に対して有効な支援を行えるとの評価を得た.
第三に,ソフトウェアの開発中に自動的に収集された作業記録を利用した開発プロセスの分析手法,および評価尺度を提案した.提案する評価尺度を用いてプロダクトの品質とプロセスの品質の相関を算出したところ,プロダクトの品質とプロセスの品質との間に相関があることを確認した.また,提案手法を実際の開発プロジェクトデータに適用した結果,開発プロセス中の,ソフトウェアの設計品質を向上させる作業が行われている箇所を特定することが可能であることを確認した.
本発表では,まずソフトウェア開発における定量的プロセス管理について概説する.次に,定量的管理の実態を明らかにするために,あるソフトウェア開発組織にて行った調査について報告する.調査結果に基づき,本研究で提案する定量的管理計画の立案作業のためのフレームワーク,および管理計画立案支援ツール AQUAMarine の開発について述べる.最後に,ソフトウェア開発時に自動収集可能な作業記録を利用した二種類の開発プロセス分析手法とそのケーススタディについて報告し,本研究を総括する.
The central goal for living organisms or intelligent systems is not to model the world as accurately as possible, but to act in their environments to achieve some goals. However, efficient decision making in the real world requires successful encoding of noisy, high-dimensional sensory inputs and representation of the implicit constraints in the environmental dynamics. In this dissertation, we explored the methods for goal-directed sensory representation and decision making in partially observable Markov decision processes (POMDPs) with high-dimensional sensory inputs and unknown dynamics.
First, we investigated whether free-energy-based reinforcement learning (FERL), which was known to handle Markov decision processes (MDPs) with high-dimensional inputs and actions, can handle POMDPs with highly noisy observations. Using a novel “digit-floor” task, we verified that reward- and action-dependent sensory coding in the distributed activation patterns of hidden units despite large variations in the sensory observations for the hidden state. Second, the FERL was combined with recurrent neural networks to handle POMDP problems that require dynamic combination of sensory inputs. Using both low-dimensional bit patterns and high-dimensional binary images, we verified that the dynamic taskstructure was implicitly reflected in the time-varying hidden unit activations.
These results show that our dynamic extension of FERL can construct distributed representation of the external world autonomously while solving realistic sequential decision making problems. This approach, which is compatible with Friston’s free-energy principle, provides the basis for biologically plausible models of representation learning in the brain.
大規模化と複雑化が進むソフトウェア開発において,限られたリソースの中で高い信頼性を確保するためには効率的なテストの実施が必須である.その一つの手段は,信頼性の低い,すなわちfault(欠陥)を含むソフトウェアモジュールを推定し,テストに費やすリソースを適切に割り当てることである.これまで,過去の開発モジュールのfault検出傾向に基づき,新規開発モジュールに含まれるfaultの有無を判別するfault-proneモジュール判別モデルに関する研究が数多く実施されてきた.本論文では,fault-proneモジュール判別の精度向上を目的として,モデル構築に用いられるフィットデータに関する2つの問題に取り組んだ.第1の問題は判別精度低下の原因となる外れ値の存在であり,第2の問題はモデル構築のための説明変数に対する人的要因の欠如である.本論文の具体的な成果は以下の通りである.
(1) 外れ値除去法適用の効果
一般にfault-proneモジュール判別モデル構築のためのフィットデータとしては,過去のプロジェクトで開発されたモジュールの全てが用いられる.しかし,フィットデータ中には外れ値(多の群の傾向と異なるモジュール)が含まれており,この外れ値が判別モデルの精度を低下させる原因となることが指摘されている.このため,外れ値はあらかじめフィットデータから除去したうえで,判別モデルを構築することが望ましい.本論文では,過去に提案されている3つの外れ値除去法に加え,新たに提案する外れ値除去法を代表的な3つのfault-proneモジュール判別モデルに適用し,その効果を実験的に比較した.
(2) 開発者メトリクスの提案
従来,モデル構築の説明変数として用いられるメトリクスとしては,ソフトウェアプロダクトの特徴を表すプロダクトメトリクスが広く用いられている.しかしfault混入の原因としてはプロダクトの特性のみならず,人的要因,すなわちプロダクトを作成した開発者の要因が強く影響すると考えられる.faultの有無を目的変数とする判別モデルとしては,fault混入の原因となる要因は可能な限り説明変数として加えることが望ましい.そこで本論文では開発者に関するメトリクスを提案し,fault増加に対する人的要因の分析と,fault-proneモジュール判別モデルに対する開発者メトリクスの効果を実験的に確かめた.
移動ロボットが生活環境でサービスを的確に実行するには,現在もなおその動作速度や挙動に問題がある.移動ロボットの自律の三要素には認識・計画・制御があり,認識と制御については研究が盛んだが,特に国内では計画は従来からあるA*のような最短経路探索を用いた既存の手法を流用するに留まっており,システムへの負荷や評価基準といった視点を考慮して経路探索の研究がなされていない.安定した動作,安全のためのすばやい反応を実現するためには計画の性能向上が必要であり,ロボットシステムに負荷の少ない計画の実現のため,経路探索の高速化は必須であると考える.本研究では計画こそが移動ロボットの最重要機能であると考え高速な経路探索手法を構築することを目的とし,環境の分類法を新たに定義し最適な経路探索手法の選択基準を提案する.
人の生活環境下で,安全でかつ効率良くロボットが行動するためには,人を認識し人の動きを考慮した上で,ロボットの移動経路を計画することが重要である.そこで本研究ではまず二輪駆動ロボットに焦点をあて,二輪駆動ロボットの動きが安全でロボットにとって効率の良い滑らかな経路を生成した.本研究では探索時に経路の滑らかさを生み出すために二輪駆動ロボットの挙動を模した滑らかなカーブを固定形状として持つ探索木をステアリングセットと定義し,この離散的な枝を用いて探索を行う手法を提案しシミュレーションおよび実際の二輪駆動ロボットに実装しその挙動を検証した.その結果,従来から用いられているグリッドベース上を最短経路探索した結果と比較し,滑らかで効率のよい走行結果が得られた.また人の動きをとらえ人の歩行を追跡する研究の成果を利用することで人という移動障害物の情報から移動障害物の動きが予測可能であると仮定し,動的に変化する環境下におけるステアリングセットを用いた時空間探索手法を提案した.
次に環境の評価法を定義した.最適な経路探索手法は環境という場が決まって初めて決定する.しかし二次元地図の最適な空間分割分類法は確立されておらず,経路は探索速度または最短の経路長のみで評価されることが一般的であった.本研究では環境の評価基準を定義し,この評価基準によって環境と経路探索の関係を示し,Forward とBackward の探索手法使用境界を示す.実験によってForward とBackward の探索手法切り替えは探索対象の地図で決定されることが明らかになった.
最後にForward な探索では経路として使用しない領域に対しても枝と障害物との衝突チェックを行うため,探索時間が地図の大きさに依存して増大することが知られている.この問題を事前に探索木を計算しておくことによって高速化できることが知られているが,この手法は使用メモリ量の増大するというトレードオフな問題点を抱えている.本研究ではメモリ量を増大させることなく事前に探索木を生成する手法を提案し,同時に高速化を実現する手法を提案する.ステアリングセットの枝を用いて事前探索木を生成することで,滑らかな経路でかつ高速な経路生成を実現する.またA*の枝を用いた汎用的な事前探索木についても実験によってその使用限界を示し最速の経路探索を提案する.
以上の結果は,経路探索を評価するための有効な基準であり,さまざまな環境に対して最適な経路探索手法を選択する際の有効な指針となる.
With the rapid progress and deployment of diverse wireless communication technologies, heterogeneous wireless networks, in which a mobile node can employ different kind of wireless technologies as its upstream data-link to get both fast communication speed and wide communication range, has been grown popular in the last decade. The traditional TCP/IP model as is, unfortunately, cannot receive the full benefit of heterogeneous wireless networks since it requests additional solutions to cope with several issues, such as mobility support, fragile data-link characteristics, and diverse link characteristics of each individual wireless data-link. As an important part of the comprehensive study on an effective utilization of heterogeneous wireless networks, this dissertation studies on the issue involved by its diverse link characteristics.
When a vertical handoff is conducted, that means a mobile node switches over the upstream data-link from one to another, it usually involves drastic changes in link characteristics. Since the traditional TCP/IP protocols have evolved on stationary networks, the protocols do not suppose such drastic changes and they may not work as expected on heterogeneous wireless networks. Especially, the TCP congestion control will be injured by such drastic changes and could not work properly. This dissertation presents two different approaches to address the problem. One is resetting the TCP congestion control parameters after an occurrence of a vertical handoff to adjust the congestion control mechanism to the after-handoff data-link. Another is introducing a TCP tunneling based multi-homing mechanism to make a mobile node can use multiple data-links simultaneously and manage the congestion control parameters separately for each available data-link. These proposed schemes are implemented on actual operating systems and evaluated in an emulation environment and actual heterogeneous wireless networks. The experimental results show these schemes successfully handle vertical handoffs on each their target environment.
情報提供の形態として,これまでの社会では費用対効果の高い一対多の形式が一般的であった.半導体技術の飛躍的な進歩とインターネットの登場は多対多通信の費用を下げ,多対多の情報提供を可能としている.
しかし,インターネットのサービスは一対多の形態であるクライアント・サーバ型が主流であり,多対多通信を実現するP2P型のネットワークは技術的に未成熟のままである.PP型の通信を実現するオーバーレイネットワークの研究分野では分散ハッシュテーブルに関する研究が盛んであり,特にトポロジに制約を加えた構造化オーバーレイネットワークは理論的に高速かつ確実な検索を可能としているため,大きな注目を集めている.
しかし,単純な構造であるため検索キーの完全一致検索しか提供できないことや,ノードの特性を考慮せずに負荷を均等に分散するなどの問題がある.特に一般の利用者が参加するような環境では,参加者が頻繁な参加と離脱(Churn)を行うため検索クエリや検索対象(Value)が喪失し,検索の成功率や再現率が低下する.
本論文では時間属性が多くの情報に付随することに着目し,情報の共有に時間属性の利用を想定した.従来の手法では時間属性を用いて共有することで,負荷の不均衡や検索クエリの増大が問題となった.そこで,時間経過に伴って集約されていくようにValueをノードへ配置し,範囲検索によるクエリの増大を防いだ.
また,提案手法ではオーバーレイネットワークをノードの参加時間に応じて階層化し,Valueを時間が経過するに従って安定した階層へと集約する.この集約の効果によってChurnの激しい環境下であっても検索成功率を高いまま維持することができる.
提案手法が動作するアプリケーションを実装し,オーバーレイネットワークのエミュレーションによる実験の結果,提案手法は従来の手法と比べ検索の成功率が約35%向上した.
また,従来のものよりネットワーク上を流れるメッセージ数が約10%増加したが,性能には問題の無い範囲であり,Valueの内容や検索の頻度によっては,ネットワーク上を流れるトラフィックを削減できる.
今日,人体を様々な側面から可視化する医用画像装置がある.これらより得られた異なる医用画像情報を統合することで新たな診断情報を獲得し,診断能の向上や正確なエビデンスによる,治療の提供や個人の経時的な病態比較等の期待がある.そのためには,様々な医用画像を融合させる技術,医用画像レジストレーションが必要であり,多くの研究がなされてきた.複数の医用画像から臓器形状や特徴点などの対応する特徴を取り出して位置合わせを行う方法や,計算機を用いて画像全体の相互情報量などを最小化することで位置合わせする方法があるが,画像化するものが異なる装置では,特徴を十分に得ることができないという問題がある.また,PET/CT やSPECT/CT のような複数装置のハイブリッド機があるが,装置が高価で利用が限られている,組み合わせることのできる装置にも限度があるといった問題がある.
本研究は,物理的に離れた場所に設置されている複数の医用画像装置から得られる画像を自動的に重ね合わすことのできるシステムの開発を目的としている.このシステムでは,医用画像装置とは独立な指標として,装置そのものに「リファレンスマーカー」を取り付け,画像座標系に対する幾何学的な関係を得るための較正を行い,各医用画像装置と医用画像が共通な座標系にマッピングされる.その上で被検者に取り付けたマーカーをリファレンスマーカーと同時に外部装置で計測し,変換行列を求めることで画像の位置合わせを行う.
本発表では,まず,医用画像から得ることのできる様々な情報や,医用画像レジストレーションに関する知見について紹介し,提案するシステムに関して,システムの概要や位置合わせ原理について述べ,システムの有用性について述べる.次に,各医用画像装置におけるシステムの適用法について述べ,PET 装置およびMRI 装置に対して提案システムを適応させた検証実験を,続いて,PET 装置および超音波検査装置に対してシステムを適応させた検証実験について述べる.最後に,本研究で得ることのできた成果について総括し,物理的に離れた場所に設置されている複数の医用画像装置から得られる画像を重ね合わすことのできるシステムとしての有用性を示す.
述語項構造とは,状態や事態を表す述語と,その述語と関係を持つ項によって構成される構造のことをいう.述語と項の関係には,項が述語に対してどのような意味役割(動作主,対象など)を持っているかが与えられる.述語項構造解析は,高次の意味解析を必要とする自然言語処理の応用において重要な要素技術であり,頑健な解析手法が求められている.
本研究の目的は,近年自然言語処理分野において主流となっている統語構造の表現形式である依存構造に基づく頑健な述語項構造解析の実現である.本発表では, (1) 構造学習に基づく新たな述語項構造解析ためのモデル,(2) 述語項構造解析のための固有表現情報の獲得および利用方法を提案する.
述語項構造には,構造の要素間に二種類の依存関係が存在する.一つは,述語の意味(語義)によって項が制約される,また項によって語義が限定されるという相互の依存関係,もう一つは複数の項が同じ意味役割を持たないこと,述語の必須の項は基本的に存在するといった項の間の依存関係である.既存研究のアプローチでは,これら双方の依存関係を同時に考慮することが困難である.そこで,双方の依存関係を同時に捉える構造学習法に基づく述語項構造解析のための新たなモデルを提案する.評価実験の結果,語義と意味役割の双方の分類性能が向上し,さらに素性選択法を適用せずに既存研究に匹敵する性能が得られ,さらに,提案モデルを用いて依存構造と述語項構造の双方を解析するシステムを構築した結果,素性選択法を用いていない既存システムの中では最良の結果が得られた.
述語項構造解析解析をおこなう上で問題となるのは,文中に現れる固有表現の存在がある.これらは無数に存在し,未知の固有表現が多く現れるため,これらを抽象化した形で扱う必要がある.そこで,既存の資源から固有表現情報を獲得し,その情報を利用して文に出現する固有表現に対して固有表現情報を付与することで,抽象化をおこなう.まずWeb上の百科事典であるWikipediaから,記事に現れるリスト構造の性質を利用した固有表現の獲得手法を提案し,次に,固有表現情報の導入方法として,既存研究で用いられている方法に加えて,複数の項に関連する大域的な固有表現情報を導入する手法を提案する.評価実験の結果,既存の導入方法と比較して高い解析性能が得られた.
人類は日常生活を送る上で食料、医薬品、香料、燃料等、様々な場面において多くの代謝物を利用している。構造決定されている代謝物は約50,000種と報告されており、2009年10月の段階でKEGGでは16,021代謝物、KNApSAcKでは40,957代謝物がデータベース化されている。一方で、代謝経路に関しては未解明な部分が多く、構造決定されている代謝物の約10%程度に相当する情報がデータベース化されるに留まっている。代謝経路の解明は生体による有用代謝物の高収率合成の実現にも繋がり、医療や食糧問題の解決の糸口にもなる非常に重要な研究である。フィンガープリントや最大共通部分構造検索を用いて化学構造間の類似性を評価することで、代謝経路を予測する手法が提案されているが、予測精度の低さやNP困難なアプローチである等の課題が残っており、高速かつ予測精度の高いアルゴリズム開発が必須な状況である。
本研究では、類似係数を利用する替わりに、化学構造から頻出部分構造を抽出し、部分構造の包含関係に着目した代謝経路予測を行うことで予測精度を向上させた。しかし、一つの化学構造には2(結合の数)個の部分構造が存在し、この中から頻出部分構造を探索する為、NP困難なアルゴリズムとなる。連結な部分構造のみを対象とすることで部分構造の数は大幅に減少するが、それでも化学構造が複雑な骨格構造を保有する場合、なお膨大な数の連結部分構造が残る。この問題を高速に解く為に、既知の代謝反応の大部分において基質と生成物間の骨格構造に包含関係が認められる点を確認し、この特徴をヒューリスティスクとして導入することで、代謝経路予測を目的とした頻出連結部分構造抽出処理の高速化を実現した。先行研究では、15,050代謝物間の経路予測において計算が完了できたのが3.34%に留まっていたのに対し、提案手法を用いることで34,653代謝物間の経路予測を2週間程度で完了することが出来た。また、予測結果からは多くの既知代謝経路や新規代謝経路を確認することができた。
さらに、予測した代謝経路の視覚化を目的とし、自己組織化マップを応用した描画アルゴリズムを提案した。提案手法により、与えられた描画空間を有効に利用したネットワーク配置が可能となり、多くの化学構造を一枚の代謝マップ上に表示させ、予測した代謝経路に沿った化学構造の変化を目で確認できるようになった。本研究は融合領域に位置する研究であり、化学や生物学の専門家の意見を取り入れながら開発したシステムを利用する必要がある。その際、数値データとしての予測結果だけではなく、視覚的にどのような代謝経路を予測したのかを提示できることは、異分野の研究者とのディスカッションを円滑に進めるためにも非常に重要な機能である。
開発したシステムはMetClassifierとしてWEB上で近日公開予定である。研究で開発した一部のアルゴリズムは公共データベースであるMassBankやNPEdiaの部分構造検索エンジンにも採用され現在世界中で稼働している。
Bootstrapping is a minimally supervised machine learning algorithm used in natural language processing (NLP) to reduce reduce the cost of human annotation. It starts from a small set of seed instances (e.g., (cat, animal) for learning is-a relation) to extract context patterns (e.g., ``X such as Y'') from a corpus. The extracted patterns are used to extract other target instances which co-occur with the patterns, and the extracted instances are then used for inducing other context patterns. By applying these steps iteratively, one can easily multiply the number of seed instances with minimal human annotation cost. The idea of bootstrapping has been adopted to many NLP tasks such as relation extraction and named entity recognition. However, bootstrapping has a tendency, called semantic drift, to select instances unrelated to the seed instances as the iteration proceeds. We demonstrate the semantic drift of bootstrapping has the same root as the topic drift of Kleinberg's HITS, using a simplified graph-based reformulation of bootstrapping. We confirm that two graph-based algorithms, the von Neumann kernels and the regularized Laplacian, can reduce semantic drift in various natural language processing tasks. Proposed algorithms achieve superior performance to Espresso, even though the proposed algorithms have less parameters and are easy to calibrate.
In this presentation, we first overview bootstrapping algorithms including state-of-the-art bootstrapping algorithm called Espresso. Then we present a graph-based analysis of Espresso-style bootstrapping algorithms to show the parallel between topic drift and semantic drift, and propose to the regularized Laplacian. Finally, we apply the proposed algorithm to two NLP tasks: word sense disambiguation and semantic category acquisition. Experimental results show that the regularized Laplacian is comparable to optimized Espresso, yet it is easy to calibrate and scalable to large scale data.
Many challenging tasks in the field of Natural Language Processing, such as Machine Translation, Linguistic Resource Construction, Paraphrasing, and Natural Language Understanding, are strongly linked to the problem of semantic representation. These semantically-challenging tasks, as we call them, are not easily solved by the shallow, data-driven approaches that have come to dominate our field.
As researchers recognize the problems with shallow approaches, they are beginning to apply more sophisticated linguistic information, as evidenced by the shift from word- and phrase-based models to syntactic models in statistical machine translation and the increasing use of syntactic information in information retrieval tasks. However, deep grammars that produce rich semantic representations are often dismissed due to concerns about coverage or complexity.
In this thesis, we show that deep grammars can make meaningful contributions to data-driven NLP by using Head-driven Phrase Structure Grammars (HPSG) to achieve state-of-the-art performance on several semantically-challenging tasks. We apply HPSG to three tasks: the expansion of a prototype semantic transfer based machine translation system, ontological acquisition from machine-readable dictionaries, and applying paraphrasing to improve the performance of a phrase-based statistical machine translation system, achieving state-of-the-art results for each task.
近年,画像,音声,ビデオクリップ,3 次元オブジェクト,文書などのマルチメディアデータが大量蓄積され,検索技術の高速化がますます重要になってきている.本論文では,近傍検索と呼ばれる,クエリとなるオブジェクトと類似した (クエリとの距離が小さい) データオブジェクトをデータ集合の中から同定する検索タスクに注目する.マルチメディアデータでは,距離計算が高コストである.そのため,検索を高速化することは重要である.
本研究では,検索を効率化するためのインデキシング手法について検討する.あらかじめ,特定のオブジェクトから全データオブジェクトとの距離を計算しておくことで問い合わせの時の距離計算コストをを削減できる.この方法は,データベースオブジェクトがクエリからある距離r以内にあるかどうかを判定する際に,まず,ピボットを利用してクエリとデータオブジェクト間の距離下界を低コストで求める.この下界がrを上回る場合には,必然的に実距離もrより大きいことから,このオブジェクトとクエリ間の距離計算を省略(枝刈り)できる.オブジェクトをどの程度枝刈りできるかどうかはピボットに依存する.そのため,多くの枝刈りを可能にするピボット集合を求めるかが高速化のカギとなる.
これまでに提案されたピボットを計算する方法は,データオブジェクト集合からピボットを選択する点で共通している.
しかしながら,データオブジェクト集合を含む距離空間には,データオブジェクト集合と同等かそれ以上に探索効率の高いピボット集合が存在し得る.
本論文では,距離空間全体からピボット集合を構成する問題設定を新たに提起する.そして,距離計算の更なる削減を可能とするピボット集合を同定するための機械学習アプローチを新たに提案する.具体的なアルゴリズムとして,ユークリッド距離を対象とする手法,カーネル関数に基づくユークリッド距離を対象とする手法を提案する.後者の手法は,カーネル関数が扱えるため,木,文字列などの構造データ(多くのマルチメディアデータを含む)を扱うことが可能となる.
ベクトルデータ,自然言語処理で用いられる木構造データを対象に実験を行い,提案手法が既存手法よりも効率的な検索を実現することを示す.
脳情報処理の理解するために,デビッド・マーは次に挙げる3つの水準について理解する必要があると提唱した.1つは,脳が計算する目的や最適性についての理解である「計算理論」の水準,次に計算理論を実現するために脳が採用する「アルゴリズム・情報表現」の水準,最後に,アルゴリズムを実装する脳の物理的特性である「ハードウェアの実装」の水準である.本発表では,脳情報処理の「計算理論」と「アルゴリズム・情報表現」を理解するための研究を発表する.
まず,ヒトの視覚眼球運動系,特にサッカードと呼ばれる眼球運動系において,動く視覚目標(視標)を予測的に追跡するための情報処理について調べた.計算論的に考えてヒトが視標運動を予測する脳情報処理は必要不可欠だが,サッカードの系において,ヒトがダイナミクスを用いて視標運動を予測していることを実験的に示した研究はこれまでになかった.本研究では,実験課題を数理的に定式化し,最適性と実現のための論理を考えることで,計算理論の水準を考慮した行動課題を設計した.その上で,数理モデルによりヒトの行動を予測することで,ヒトがダイナミクスを用いた予測をできることがわかった.また,ヒトは視標運動のダイナミクスにあわせて適応的に予測していることも示唆された.
次に,顔知覚に関わる視覚領野である下側頭葉の脳情報表現を調べるために,脳情報の再構成と行動予測をおこなった.顔知覚課題中の下側頭葉fMRI脳活動データから,数理モデルにより,ヒトが知覚した顔情報を画像として再構成した.さらに,再構成した顔知覚情報をもとに,ヒトの顔識別行動を予測し,実際のヒトの識別行動と比較することにより,再構成できる程度の情報が下側頭葉で表現されていることを示し,再構成精度を行動予測誤差により評価する実験系を提案した.また,脳活動情報を画像として再構成したことにより,下側頭葉における高次元の視覚的情報表現を,感覚的(視覚的)に理解することを可能にした.
以上,具体的な2つの研究を通し,ヒトの行動を予測することが脳情報処理の理解に有効な方法であることを示す.
When new technologies will be introduced to a large-scale distributed system such as the Internet, these technologies should be evaluated practically to avoid bad effects to existing systems. For these evaluations, many researchers and developers use a customized PC-based cluster also known as Network Emulation Testbed (NET). One of the most important problems in performing experiment on a NET is time-consuming preparations for users' experiments. Particularly, large scale NETs requires efficient preparation within the reserved period that is typically one week for one user. However, due to the large number of nodes, the preparation workload might be longer than the small ones.
We consider that the problem originates from four subproblems. The first problem is that topology configuration has no reusability. The second one is differences in assistant tools and experimental procedures on each NET. The third one is lack of compatibility and complementation of assistant tools. The last one is difficulty to emulate a realistic topology. In order to solve these subproblems, we propose AnyBed architecture in this dissertation. We divide the whole preparation into three parts: network topology design, resource assignment, and node configuration. In the proposed architecture, we have three layers corresponding to each part: design layer, assignment layer, and injection layer. Each layer consists of several components that are loosely coupled.
We implemented these proposed architecture as AnyBed toolset, and have released the toolset as an open-source software. From evaluation results and feedbacks of various users, we confirmed that AnyBed can expedite users' experiments.