強化学習はもともと,マルコフ決定過程を対象として発展してきた.そして,これまでに報告されているマルチエージェント環境における 強化学習の研究のほとんどでは,このマルコフ決定過程を対象として定式化された伝統的な強化学習法がそのまま適用されている.しかし ながら,マルコフ決定過程を対象として定式化された強化学習法をそのままマルチエージェント環境に適用した場合,『時間と共に変化す る他エージェントの行動決定関数』と『時不変な状態遷移関数』の違いを区別できないという欠点がある.
そこで本研究では,まず,マルコフ決定過程を対象として定式化されたQ学習と呼ばれる強化学習法を,『時間と共に変化する他エージェント の行動決定関数』を考慮に入れられるように拡張した新たなマルチエージェント強化学習法を提案する.そして,エージェント数が2体の場合 において,提案手法により効果的な学習が行えることを実験的に示す.
ところで,この提案手法は,環境内に存在するエージェント数が増加すると,その増加に対して学習空間のサイズが指数関数的に増大するとい う欠点を持つ.強化学習において,学習空間サイズの指数関数的増大は,『次元の呪い』と呼ばれ,学習を大きく遅らせる原因となる.そこで本 研究では,次に,『時間と共に変化する他エージェントの行動決定関数』を考慮に入れた強化学習法で,学習空間サイズがエージェント数の増加 に対して指数関数的に増大しない新たな強化学習の枠組を提案する.そして,エージェント数が増加した場合において,この提案手法により,効 果的な学習が行えることを実験的に示す.
This thesis proposes an instruction-based self-testing methodology for delay fault testing of modern processors in a chronological way by first dealing with non-pipelined processors, and then pipelined processors and superscalar processor architectures.
In order to test a non-pipelined processor a graph theoretic model, called instruction execution graph based on the register transfer level description of the processor is developed. This model, in conjunction with the structural and functional information, is used to identify and classify all paths into functionally testable and untestable paths and to generate tests and test instruction sequences that can be applied in functional mode of operation of the processor. The completeness of the test method is guaranteed by extracting constraints for the paths that are testable.
The approach proposed above is expanded to include pipeline architectures. A new graph model, called pipeline instruction execution graph, is defined that captures the effect of executing multiple instructions concurrently. This graph model is then used to generate tests and test sequences for normal as well as forwarding paths between different stages of a pipeline processor.
Finally, the thesis explores path delay testing of superscalar architectures, one of the most complex architectures of the modern processors. Such architectures use out of order execution technique to enhance the throughput, which poses serious challenges to instruction-based testing. This thesis identifies test related issues. It proposes a superscalar processor model, called superscalar instruction execution graph, and provides a method of generating test programs that can force scheduler to execute the instructions in the desired order to test the processor.
The effectiveness of all the above stated approaches has been demonstrated through experimental results for some representative processors.
In the current network management, operators have to implement their network to fit their management policy. The management policy is a set of demands from customers and mandates from business administrations such as delay limits and usable bandwidth, capacity limit controls and so on. However, the management policy is too abstract so that more specific description and processing are required for generating configuration for each individual component as their reflections. The goal of my research is to design and implement Policy Based Route Management (PBRM) methods: namely to give measures for operators to describe their preferences on route selections, to convert their descriptions to the actual router configurations, and to confirm the network to fulfill the requirements and keep its consistency. According to the current routing management architecture, we have to split our efforts into two categories: inter-domain and intra-domain networks.
For the inter-domain network management, Routing Policy Specification Language (RPSL) is standardized by Internet Engineering Task Force (IETF) as a method to express an autonomous system's (AS's) routing policies. The RPSL was widely deployed, and operators can register their policies written in RPSL to Internet Routing Registry (IRR) and generate router configurations with a tool called IRRToolSet. However, if description on primary route, which is vital route for their network operation, is missing, the connectivity may be lost between routers when we apply the automatic generated configurations to the routers. To establish the PBRM for inter-domain networks, a mechanism to maintain the consistency of the policy is highly required. In my research, the mechanism called Policy Check Server is proposed. The Policy Check Server is a system to check consistencies between AS's policies that are submitted by multiple network operation entities. In the case an operator registers its autonomous system's routing policies to the IRR, Policy Check Server examines if the policies are consistent with the peer AS's policies. This Policy Check Server is implemented and in operation at JPNIC as its first step of deployment.
On the other hand, in the intra-domain network, there are few tools to establish PBRM so far. In the management of the intra-domain network, tools with Simple Network Management Protocol (SNMP) capability are widely used. Although SNMP tools can set OSPF link costs to various routers, operators still have to decide the actual values of the cost manually. This is a nature to cause misconfiguration of routers and instability of networks, so that an automation tool to ease operators' burden is highly expected. However, there has been no study that tried to establish a method that generates link costs from policies. In my research, the system with both automatic generation of link costs and consistency check with management policies is proposed.
In this dissertation, background and "needs" of the PBRM are revealed, then the details of two system proposed in my research are discussed. Through the deployment of my systems, the value and usefulness of my systems are confirmed, however, several issues discussed in the later section of this dissertation are also raised as the future work. In general, PBRM is my first step toward the policy based network management. There are multiple potential directions of this research. Their discussions are also included to this dissertations.
上に述べた傾向から、SoCのテストに関しては以下の課題がある。 まず、ロジック部分に関しては、大規模化によりテスト実行時間が増大する。また、消費電力の制約により、全チップ一括でテストを行うことは困難になると考えられる。従って、組み込みコア毎にテストを行い、チップ全体の動作を保証する組み込みコアテスト、あるいはクロックドメイン単位のテストといった回路を部分的に動作させるテスト方式が採用されると思われる。このときテスト実行時間を出来る限り小さくするために、SoCの外部ピン数、テスト時総消費電力、面積、及び使用するテスタに搭載可能なテストデータ量等の様々な制約条件を考慮し、適切なテストスケジュールを作成する必要がある。また、個々の部分回路のテスト手法は、上記の制約条件とその回路に要求されるテスト品質を満たし、かつテストコストが最小となるようにテスト容易化設計手法(design for test:以下DFTと記述)の選択を行うことが望ましい。 次に、メモリ部分に関しては、多数の内蔵メモリのテストを外部テスタから個々に実施するとテスト実行時間が増大し、非現実的なコストがかかってしまう。このため、LSI内部にテストパターンの発生と出力応答の良否判定を行う機構を設けた組み込み自己テスト方式(built-in self-test:以下BISTと記述)を用い、個々のメモリを同時にテストするのが一般的である。しかし、メモリの種類と個数の増加は、テスト時の消費電力の増大とBIST回路面積の増大につながり、内蔵メモリを適切なコストでテストすることは急速に困難となりつつある。特に、小規模なメモリの場合はBIST回路の面積が相対的に大きくなるため、BIST回路の面積低減手法が重要となる。
以上の課題に対して、まずロジック部分の組み込みコアテストを前提として、テスト実行時間最短化を目標としたDFT選択問題を定式化し、各コアのDFT選択を変更しながらテストスケジューリングを実行し、greedy法によりDFT選択を最適化する手法について述べる。また、評価実験によりその有効性を示す。次に、メモリ部分の回路面積の低減手法として、BIST回路の共有による面積最小化のためのメモリグループ化手法について述べ、評価実験により有効性を示す。
本研究の前半では、不良率、歩留、故障検出率の関係モデルを見直す。特に、BIST回路が故障する可能性がこの関係モデルにどのような影響をもたらすのかを示す。 本研究の後半では、低速なテスターを用いて、高速な回路の応答を観測する方法について述べる。まず、エイリアスや回路増の影響が無く、かつの完全にすべての誤りを特定できる手法を提案する。次に、その手法を拡張し、シグネチャー圧縮器を用いてテスト実行時間を短縮する。本手法は、BIST環境において実用的なテスト実行時間で全ての誤りの特定が可能である。
This thesis proposes several schemes and approaches to reduce peak power as well as average power at RT-level and at gate level respectively. Test application time and hardware overhead are also important factors. In our approaches, we try to minimize one or either under the given power constraints to make the test more effectively.
Focused on power reduction of RTL data path, this thesis proposes three non-scan BIST schemes, formulates three problems concerning the schemes, and introduces three power-constrained DFT algorithms to resolve these problems.
In adjacent non-scan BIST scheme, some registers are enhanced to test registers so that each functional module can be tested by test registers connected with the module directly or only through multiplexers. Though this scheme achieves short test application time, hardware overhead is very high. To overcome this problem, in the techniques of our laboratory, TPGs and RAs are placed only at PIs and POs respectively, and test patterns and test responses are transferred along paths in the data paths. We call this BIST scheme boundary non-scan BIST scheme. We also propose a more general BIST scheme that covers the above two schemes, adjacent non-scan BIST scheme and boundary non-scan BIST scheme. Generally, TPGs and RAs can be placed not only at the boundary of the data path but also inside of the data path. Any register inside the data path can be a candidate to be augmented to a TPG or an RA. We call this BIST scheme non-scan BIST scheme.
We formulate three problems employing the above testabilities satisfying peak power limit to minimize test application time, hardware overhead and either respectively. Three power-constrained DFT approaches are given to solve them. The first is for adjacent non-scan BIST scheme intend for short test application time. The second algorithm uses a boundary non-scan BIST scheme that focuses on achieving a low hardware overhead. This scheme, therefore, is more efficient in reducing the hardware overhead than previous methods. The third algorithm is based upon a general non-scan BIST scheme that explores possible trade-offs between hardware overhead and test application time under power constraints, rather than consider only one such factor, as previous published power-constrained methods do.
Focused on power reduction of the circuits at gate level, this thesis also proposes a low power scan test scheme and formulates a problem based on this scheme. In this scheme the flip-flops are grouped into N scan chains. At any time, only one scan chain is active during scan test. Therefore, both average power and peak power are reduced compared with conventional full scan test methodology. To resolve this problem, a tabu search-based approach is described to minimize test application time. In this approach we handle the information during deterministic test efficiently. For various benchmark circuits, this approach drastically reduces both average power and peak power dissipation at a little longer test application time.
まず, 局所制御Lyapunov関数のある等高線の内側で 漸近安定化可能領域が保証されることを明らかにする. つぎに, 入力空間の閉方内で 局所制御Lyapunov関数の微分を最小化する入力を求め, 漸近安定化可能領域で満たされる条件を導出する. つづいて, 局所制御Lyapunov関数の微分を最小化する入力と 同じ方向ベクトルを持つ制御則を設計する. 提案した制御則はMalisoffの制御則の一般化になっており, kが有界かつk>1ならば, 入力は原点以外で連続になる. しかし, kが無限大あるいはk=1ならば, 入力は不連続になる恐れがある. そこで, 任意のk≧1に対して入力が原点以外で連続になるように, 制御則を改良する. さらに, 制御則のロバスト性を保証するため, 提案した制御則と同じ方向ベクトルを持つ逆最適制御則を設計し, セクタ余裕によってロバスト性を評価する.
逆最適制御則のセクタ余裕の下限は入力の方向ベクトルによって決まり, 吸引領域はセクタ余裕と入力制約によって決定される. 入力制約のもとでは, セクタ余裕と吸引領域はトレードオフの関係にあり, これらを同時に大きくすることはできない. そのため, 逆最適制御則の存在する領域は小さくなってしまうことがある. そこで, セクタ余裕と吸引領域を適切に調節するため, 逆最適性を無視してロバストな制御則を構築する.
まず,(1)を防止するために役立つ方法として, 秘密情報を含む作業成果物が外部に漏えいするリスクを定量的に評価する方法を提案する. あるプロセスが行われるとき,共同でプロセスを担った開発者間で 「作業中のプロセスに関係しない知識」も共有されると仮定すると, すべてのプロセスを終えた後の各開発者の知識の内容は, 各プロセスについての開発者の割り当て方や,プロセスの実行順序に依存する. この考えに基づき,開発者間における知識の伝達のメカニズムを定式化し, 「任意の開発者が,従事するプロセスとは無関係なプロダクトに 関する知識を持つ確率」を計算する方法を提案する. 得られた確率から,作業成果物が外部に漏えいするリスクを見積もる. 発表では,ケーススタディを交えて提案方法を紹介する.
次に,(2)を防止するために, ユーザのソフトウェアの解析に要するコスト(時間や労力)を増大させる方法を 提案する. 提案方法では,プログラム中の任意の命令(ターゲット) を異なる命令で偽装 (カムフラージュ)し, 自己書き換え機構を用いて,実行時のある期間においてのみ元来の命令に復元する. 攻撃者がカムフラージュされた命令を含む範囲の解析を試みたとしても, ターゲットの書き換えを行うルーチン(書き換えルーチン) の存在に気づかない限り, プログラムの元来の動作を正しく理解することは不可能となる. 解析を成功させるためには,書き換えルーチンを含む範囲についても解析する必要があり, 結果として,攻撃者はより広範囲にわたるプログラムの解析を強いられることとなる. 発表では,提案方法の紹介のほか, 提案方法によって保護されたソフトウェアの解析 の困難さについての議論,および, パフォーマンスやプログラムサイズのオーバーヘッドを測定した実験の報告も行う.
まず,開発の局面におけるソフトウェア保護を考える.従来,開発の局面にお けるソースコードは使用許諾書(ライセンス)のみで保護されており,技術的な 保護機構が施されているわけではない. また,開発者がライセンスに違反して,ソフトウェアを盗用したとしても,ラ イセンス違反の事実を他者が知ることは容易ではないため,ライセンス違反に 対する技術的,また心理的障壁は高くない. しかし,ライセンス違反が疑われるソフトウェアのソースコードが開示されず, バイナリプログラムのみしか配布されないため,ライセンス違反の有無を確認 することが難しい. そこで,ソフトウェアバースマークの概念を提案する.ソフトウェアバースマー クはソフトウェア固有の特徴の集合のことであり,ソフトウェアそのものから 直接抽出される. また,ソフトウェアの改ざんに対して耐性を持つ``保存性''と,異なるソフト ウェアからは異なるバースマークが抽出される``弁別性''の 2 つの性質を持 つことが望まれる. また,ソフトウェアバースマークの概念を満たす Java 言語を対象とした 4 種類のバースマークを提案し,評価を行った. 保存性の評価では,Apache Ant に対して 4 つのツールを用いて難読化を施し, 難読化前後のクラスファイルからバースマークを抽出,比較した結果,バース マークの類似度は平均で 0.940 であった. また,弁別性の評価において,BCEL, javassist, bloat の 3 つの Java クラ スファイルを操作するための異なるプロダクトに含まれるクラスファイルを 0.962 の割合で弁別できることを確認した.
次に,利用の局面においては,ソースコードが提供されることは少なく,エン ドユーザの不正を防止するため,様々な技術的保護機構が施されている場合が 多い. しかし,これらの保護機構もソフトウェアで実現されているため,悪意あるユー ザによる保護機構の破壊が大きな問題となっている. そこで,動的名前解決を利用してソフトウェアの名前難読化を行う方法を提案する. 名前難読化とは,名前難読化とはプログラム中に現れる(識別子)を別のものに 付け替える難読化である. しかし,従来法ではユーザが定義した名前しか隠す ことができず,標準ライブラリのようなシステムが提供するライブラリに含ま れるメソッドやクラス名を隠すことはできない. 本論文では,メタプログラミングに用いられる動的名前解決機構を難読化に導 入することで,従来隠すことのできなかった標準ライブラリの呼び出し( クラ ス参照やメソッド呼び出し,フィールドの参照・代入のことを言う) を隠す手 法を提案する. 提案難読化手法に適用できるのは標準ライブラリの呼び出しだけでなく,ユー ザライブラリの呼び出しをも隠すことが可能になる. これにより,秘密にすべき呼び出し (例えば認証処理) を隠すことができ,ソ フトウェアをクラックから守ることができる. 実用的なライブラリである Jakarta Commons Digester に提案手法を適用し, 2,359 のフィールド参照,673 のフィールドへの代入,197 のオブジェクト生 成,そして,7,351 のメソッド呼び出しの全てのクラス名,メソッド名,フィー ルド名を隠蔽することができた. また,難読化前後で実行時間を測定した結果,4.11 倍の増加に抑えることが できた.
Broad Applicability and High Performance: The prediction performance of the method is measured for several functions including GO terms and enzyme activities by recall-precision graphs using the 28,520 whole human proteins registered in RefSeq. In most cases on GO terms, it scores 70% recall with 80% precision. The proposed method is applicable in broad levels from a specific enzyme to large class of enzymes like 'transferases' (EC 2.-.-.-). In some cases on enzyme activities, it scores the maximum f-measure over 0.9. The results of these evaluation suggest that the proposed method is quite efficient for various protein functions.
Better than Other Methods: To clarify the performance of the proposed method objectively, the research includes a comparative research with some already proposed prediction methods based on homology search and pattern matching. For instance, on the prediction of protein-tyrosine kinase, The f-measures of homology search and pattern matching are 0.860 and 0.297, respectively, while the proposed method based on oligopeptides scores maximum f-measure of 0.932. The results of these evaluation suggest that the proposed method based on oligopeptides is more efficient than ones of homology search and pattern matching.
Consideration on Length of Oligopeptides: The research also characterises the relation between the length of oligopeptides and the prediction of protein functions. The performance of prediction is measured for the length of oligopeptides between 1 and 9. The results suggest that: 1) shorter oligopeptides than 4 are obviously less effective, 2) longer oligopeptides than 4 are almost equally effective, and 3) oligopeptides of 4 are intermediate. The prediction based on oligopeptides utilises coexistence of oligopeptides among proteins. The longer oligopeptides are more versatile than the shorter one because the longer oligopeptide is more varied than the shorter one, and the degree of the coexistence is inversely related to the length. The results of these evaluation suggest that length of 5 is quite effective and versatile.
The public hearing will be in Japanese.
まず,包括的 mRNA 測定技術の一つである,アダプタ付加競合 PCR (ATAC-PCR) 法により得られる蛍光量データの特徴とその補正法について報告する. これまで問題となっていたアダプタ長依存の測定バイアスの 解明を主眼とし,ATAC-PCR 法で得られたデータの詳細な解析を行った. 解析結果に基づき蛍光ピーク値に関する観測モデルの定式化を行ない, ノイズ項のパラメータの推定量の導出と,それらを用いたピーク値補正法を提案した. この手法を,アダプタノイズ解析のために特化した採取されたピークデータに適 用し,アダプタ依存ノイズのパラメータを求め,次いで, 実データに対しバイアス補正の適用を試み,その有効性を確認した.
次に,生きた細胞における遺伝子発現ダイナミクスの解析を目指し, 遺伝子発現プロファイルの時系列に対する解析法について述べる. ここでは,状態空間モデルに基き, ノイズプロセスに白色ガウシアンを仮定した線形ダイナミ カルシステムモデルを考え,変分ベイズ法による推定とモデル選択を 行うための新たな手法を提案した.本手 法を出芽酵母細胞周期に関する公開データセットに適用したところ,従来手法で 選択されたモデルと比較し,より単純かつ尤もらしいモデルが選択された.ま た,この結果得られたモデルパラメータは,生物学的な考察と良く一致した.人 工データへの適用も行い,ノイズを含む時系列データに対する有効性が示された.
最後に,遺伝子発現からの癌の病理診断を想定した, 新たな多クラス識別法について述べる.本手法では,多クラス識別問題を一対一ペアや一対残り ペアなどのラベルの任意の組み合わせから成る2値分類問題群に分解し,各問 題での判別結果を統合することによって最適な識別結果を得る.各2値分類問 題における真の分類確率がクラス所属確率をパラメータとした確率モデルによっ て生成されると考え,これを2値分類器によって得られた分類確率の推定値か ら推定する方法,さらに2値分類器の重みを推定する方法を導いた. 本手法を人工データおよび甲状腺がん分類問題をはじめとした実データに適 用し,従来のヒューリスティクスによる投票法と同等以上の性能を達成することを示 した.さらに,この分野で提案されてきたいくつかの多クラス識別法との比較 を行い,本手法の優位性および性質を明らかにした.
まずはじめに汎用的な膜タンパク質アミノ酸配列のペアワイズアラインメント法について述べる。ペア隠れマルコフモデルを用いて、膜貫通領域予測を考慮しながら配列アラインメント法を行うことができる方法を開発し、その手法が従来手法より高い精度であることを示す。
次にGタンパク質共役型受容体(GPCR)という特定のファミリーに対するアラインメント法及び機能予測法について議論する。汎用的なアラインメント手法よりも高精度のアラインメントを作成するために、プロファイル隠れマルコフモデル使用し、さらにモデルに対して立体構造構造に基づく改良を行った。その手法で作成されたアラインメントを基に2つの機能予測法を提案する。
1つ目の機能予測法として、GPCRのペプチド・タンパク質リガンドの残基長を予測する手法を提案する。GPCRの機能解析で主要な課題の1つにはオーファンGPCRのリガンド決定である。ここではペプチド・タンパク質リガンドの特性の1つである残基長をGPCRのアミノ酸配列から予測することで、リガンド候補の優先順位の新しいアプローチを提案する。予測方法としてはアラインメントを基にアミノ酸指標を用いた特徴量を作成し、サポートベクター回帰を用いた。予測の評価結果とオーファンGPCRに適用した結果について議論する。
2つ目の機能予測法として、GPCRとGタンパク質の共役選択性についての予測方法を提案する。オーファンGPCRに対して共役選択性を予測することは、リガンドをスクリーニングする時のアッセイ系構築に役立つ。アラインメント情報からアミノ酸出現頻度の観点から共役選択性と関連があると予測される部位を探す手法を提案し、予測部位と共役選択性の関係について考察した。考察から得られた情報と他の物理化学的な特徴を特徴量として定め、サポートベクター分類を用いて共役選択性を予測する手法を提案する。
近年,機械学習アルゴリズムの一つであるサポートベクターマシーン(SVM)が自然言語処理において広く使われるようになっている. SVMは多量の素性を使用する問題に対しても過学習を起こしにくく,カーネル関数の利用により素性の組合わせを自動的に考慮できるなどの特徴を有しており,高い精度で分類問題を解けることが知られている. 高精度な言語解析を行う上で,単語を素性とした大規模な素性空間を用いることや,素性同士の組合わせを利用することは重要と思われるが,SVMを用いることで様々な素性を有効に利用して品詞タグの推定を行える可能性がある. そこで,SVMを用いた未知語の品詞推定と品詞タグ付けを試みる.
多くの従来研究では,未知語の品詞はその前後の単語等の局所的な情報のみを用いて推定される. しかしながら,局所的な情報のみでは品詞推定が困難な場合が存在する. そのような場合,文書全体での未知語の使われ方などの大域的な情報を手がかりとして用いることが有用と思われる. そこで,局所的な情報だけではなく大域的な情報も用いた未知語の品詞推定を試みる. 文書中に出現する全ての未知語を同時に考慮した確率モデルを利用することにより,局所的な情報と大域的な情報の両者を用いて未知語の品詞推定を行う方法を提案する. また,本モデルでラベル無しデータを利用する方法についても検討する.
上述の2つの方法では,未知語に対する品詞の推定を試みたが,中国語や日本語においては未知語に対する単語分割も重要な課題である. 従来から単語分割の方法として,単語単位で処理を行う方法と文字単位で処理を行う方法が試みられているが,これらの方法はそれぞれ,未知語に対する処理が困難であったり既知語に対する解析精度が低い傾向がある. そこで,これらの二つの手法を組み合わせることにより,既知語に対しても未知語に対しても高い精度で単語分割を行うことができる手法を提案する. 提案手法では入力された文に対して,既知語を処理するための単語単位の候補と未知語を処理するための文字単位の候補を同時に考え,それらを統一的に扱うことによって既知語と未知語を処理する.
SVMを直接用いて未知語の品詞推定や品詞タグ付けを行う場合,非常に多くの計算量が必要とされる. また,その手法を単語分割に直接適用するのは困難である. そこでこれらの問題を解決するために,修正学習法を提案する. これは,計算量の少ない学習モデルと表現力の高い学習モデルを組み合わせることにより,少ない計算量で高い精度を達成しようとする方法である. 計算量の少ない学習モデルの出力を,表現力の高い学習モデルで修正することにより解析を行う. この手法を用いて単語分割に適したモデルとSVMを組み合わせることにより,SVMを使用して単語分割を行うことができる.
単語分割や品詞タグ付けに関連した問題の一つに,コーパスの誤りの問題がある. コーパスに基づく自然言語処理システムの性能を上げるためには,コーパス中の誤りを自動的に検出してそれらを人手で修正することにより,コーパスの質を高めることが必要とされる. そこで,SVMを用いてコーパス中の誤りを検出する方法を提案する. SVMを用いてコーパス中の例外的な事例を発見し,その事例に基づいてコーパス中で非一貫性が生じている部分を抽出することにより,コーパス中の誤り検出を行う.
そこで,本論では設計案を作成する知識と経験を過去の優れた設計事例に求めた.優れた設計事例は建築計画的に考慮されており,設計に関する知識を内包している.また,同一用途の建築物を複数集積することは当該建築物に関する経験と言え,経験により様々な設計条件に応じた設計案を作り出すことが可能である. 本論では,過去の優れた設計事例に内包されている知識と経験を新しい設計に活用するために検索形設計支援システムを提案する.設計事例を計算機で扱うことのできる検索対象とする為には「空間配列」を用いる.空間配列の形式で計算機に格納された設計事例は室配置方角,室接続関係等から検索可能であり,これによりユーザーは断片的な設計条件の入力から設計案を作成することができる.
非設計専門家が積極的に設計に参加できるようにする目的のために,本論では新しく設計しようとする建築物に対する言葉やイメージなどの断片的,不確定なユーザーの入力から平面プランを描くことを目標とした.設計に対する要求をまとめて大まかな設計案を作成する段階は概念設計と呼び,この概念設計を計算機により支援することが非設計専門家の設計支援に繋がる. 計算機によってユーザーの概念設計を支援し,平面プランを得る方法として「検索形設計支援」を提案した.検索形設計支援は,過去の優れた既存設計事例を計算機内に格納しておき,新規の設計を行う際には設計要求・条件を満たした既存設計事例を検索・選定し,選定した既存設計事例を基に新規の設計を行うものである. このため,既存設計事例を検索可能な形式で計算機に格納する必要がある.既存設計事例を検索可能な形式で計算機に格納するための方法として「空間配列」を提案した.また,選定した空間配列を基にして新たな平面プランを描く方法を提案した.
本論で提案した「空間配列を用いた検索形設計支援方法」により,設計条件として入力した室配置方角,室接続関係を満たした空間配列を検索・選定することができた.また,選定した空間配列を基にして新たな平面プランを得ることができた.選定した空間配列および空間配列を基にした平面プランの両者は共に設計条件とした室配置方角,室接続関係を満たしており,本論で目標とした断片的な入力から平面プランを得ることを可能とした. また,検索形設計支援方法を大規模な設計に対応させるために「ゾーンプランニング手法」を提案・導入した.大規模設計では,配置する室数が大幅に増加するため,関連室同士を「室グループ」として扱い,平面図を大まかに区分けした「ゾーン」に配置していく方法が有効である.このため,ゾーンプランニングを計算機によって扱うための「ゾーン配列」及び,積層型建築物の設計に対応させるために「3次元空間配列」を提案した. ゾーン配列を用いることで大規模設計事例を抽象化することができ,これを計算機に格納することが可能になった.また,ゾーン同士の接続関係から既存大規模設計事例のゾーン配列を検索・選定することができた.
キーワード 建築設計支援,検索形設計支援,既存設計事例,平面図記号化,空間配列With the development of mobile systems and wireless networks, various kinds of mobile terminals become part of distributed multimedia systems. However, the restrictions, especially the limitation of battery amount restricts the quality of video/audio playback, leading to the end user's dissatisfaction. So, we need a technique to adapt application-level QoS for end mobile users depending on battery amount. With the development of distributed multi-media systems, the performance of end terminals and user's requirements become manifold. In order to provision multimedia streaming services to multiple users, the multi-media systems should be highly functional, scalable and robust. For this purpose, the traditional server/client architecture is already obsolete. Instead, we need a new architecture including an efficient delivery network based on peer-to-peer overlay network and functional components distributed among multiple distant nodes for accommodating a large number of users and continuing multimedia services even with node/link failures. In order to guarantee the performance and/or appropriateness of QoS adaptation mechanisms implemented as a software system, it is important to test whether each mechanism is correctly implemented, without executing the whole system. So a new method for testing QoS in multimedia systems is indispensable. This thesis provides the following three research topics.
First, in order to guarantee the correctness of QoS adaptation mechanisms, we propose a testing method for QoS functions in distributed multi-media systems. In the proposed test method, we use a statistical approach where test sequences take samplings of actual frame rates and/or time lags when an IUT (implementation under test) is executed, and report test results from ratio of samplings with low quality below a threshold in a normal distribution of all samplings.
Secondly, a QoS adaptation method for streaming video playback for portable computing devices where playback quality of each video segment is automatically adjusted from the remaining battery amount, desirable playback duration and the user's preference to each segment, is proposed. In this method, we assume that video segments are classified into several predefined categories. Each user specifies relative importance among categories and preferred video property such as motion speed and vividness for each category. From the information, playback quality and property of each category are determined so that the video playback can last for the specified duration within the battery amount.
Finally, a new video delivery method called MTcast (Multiple Transcode based video multicast) is proposed. It achieves efficient simultaneous video delivery to multiple users with different quality requirements by relying on user nodes to transcode and forward video to other user nodes. In MTcast, each user specifies a quality requirement for a video consisting of bitrate, picture size and frame rate based on the user's environmental resource limitation. All users can receive video with the specified quality (or near this quality) along a single delivery tree.
Some experimental results show that our proposed test method works effectively for QoS functional tests in a typical multimedia playback program, and our QoS adaptation method improves playback quality of important categories a few times better than flattening the playback quality. Through simulations, our video delivery method can achieve much higher user satisfaction degree and robustness against node failure than the layered multicast method.
本発表では,まずウェアラブル拡張現実感システムにおける技術課題と従来研究を概観し,本研究の目的と意義を明確にする.次に,提案するウェアラブル拡張現実感システムの概要について述べる.次に,広域環境で利用可能な絶対位置の同定と相対移動量の推定を利用したユーザ位置計測手法,および計測環境の構築について述べる.さらに,コンテンツデータベースの構築と拡張現実環境におけるビューマネージメント手法について述べ,提案システムのコンテンツの数および種類に関する拡張性を示す.次に,ウェアラブル拡張現実感システムを利用した位置依存情報提示の実用例として,本学内におけるナビゲーションシステムと屋外観光案内システムのプロトタイプについて述べる.最後に本研究を総括し,今後の展望を述べる.
本発表では,はじめに静的物体に対する注視対象推定手法について述べる.非 装着型の視線計測装置を用いて静的対象に対する注視判定を行い,ヒューマン インタフェース及びドライバモニタリングへ応用した.ヒューマンインタフェー スとしては,「見る」という動作と操作の切り替え動作を対応させた直感的な 機器の切り替え手法を提案し,既存の手法と比較実験の結果を示す.また,自 動車工学の分野ではドライバモニタリングとしての利用法を提案し,実車にお いて車線変更及びカーブ走行中の特徴的な動作の計測を実施し,システムの検 証を行った.
次に複数人の注視情報を利用した注意点の推定手法について述べる.複数人の 注視情報を用いて注意の集中する箇所(場の注意)を推定する.人の注視が異な る対象に向けられた場合にも安定して推定できることや複数の注意点も推定が 可能であることをシミュレーションを用いて検証した.また,非装着型計測シ ステムを提案し,オンライン計測の結果を示す.実際の対話のシーンにおいて 「場の注意」の推定し,映像の自動編集へ応用する.音声情報と推定した「場 の注意」の結果を比較し,提案手法の有効性を示す.
In order to defend attacks on the Internet, traceback techniques are requiredas well as attack detection techniques and attack protection techniques. Network operators can manually trace back attacks, but it is likely to be tedious process and spends much more time. Many researcher have proposed various traceback techniques to automate the manual traceback, however, they faced several difficulties. On the inter-domain traceback, the issues arise from the difficulties to overcome the barriers on network operation boundaries, especially the leakage of sensitive information, the violation of the administrative permission, the difference of employed techniques among Autonomous Systems (ASes) and the cooperation among ASes. On the other hand, the challenge of the intra-domain traceback is how to detect the attacker node inside a network domain even when both the source IP address and the source MAC address of an attack packet are spoofed. The interconnection between layer 3 traceback techniques and layer 2 traceback techniques is also an issue of the inter-domain traceback because most traceback techniques on each layer cannot track attacks on other layer.
In this research, we propose InterTrack as an interconnection architecture for traceback systems, Ingress Port Based Tracking (IPBT) method as a layer 2 tracback technique, and L2-SPIE as a technique to interconnect a layer 3 traceback and a layer 2 traceback. The contributions of this research are as follows:
The loose cooperation among ASes on the deployment traceback systems and on traceback operation: We designed the InterTrack architecture and InterTrack messages for the loose cooperation among ASes. The ITM trace reply message contains only the reverse AS path information, and it doesn’t contain the detailed topologies of ASes. Through the module components, ASes can choose traceback techniques for the internal use in accordance with the pros and cons of each technique or the investment cost.
The same manner of the traceback operation as the manner of other network operations: The phased tracking approach of InterTrack was designed along with the network operation boundaries on the routing operation. By phasing an inter-domain traceback into four stages, ASes can authorize the users on each stage. ASes can also delegate the internal traceback operation to the organizations on the IGP sub-domains.
Expedition of the procedures on the inter-domain traceback: The preliminary experiments of InterTrack show that the average time of a trial on InterTrack was estimated as 14 seconds with a hash digest logging based border tracking system in 9 AS hop length. The model of the border tracking technique for identifying upstream neighbor ASes: We modeled the border tracking technique for detect the neighbor ASes on the attack path. According to this model, we developed a sample border tracking implementation by using PAFFI, a hash digest logging based traceback product.
The detailed internal inspection about the source of an attack packet: Our IPBT method can track back a single packet on a layer 2 network to the port to which an attacker node connects despite the source spoofed characteristic of the IP address and the MAC address.
An interconnection between a hash digest logging method on the layer 3 traceback and IPBT method on the layer 2 traceback: We developed a prototype implementation of L2-SPIE which interconnects hash digest loggin method as a layer 3 traceback and our IPBT method as a layer 2 traceback. The evaluation result shows the average time of a traceback trial on L2-SPIE was about 1,500 microseconds.
The foundation of the self-defending network architecture: InterTrack and L2-SPIE provide a multi-layers traceback to detect the attacker nodes from the layer 3 traceback to the layer 2 traceback. We also designed InterTrack to cooperate other detection systems and protection systems for the multi-layers traceback and the attack mitigations.
In the presentation, I talk about the details of these proposals.
The public hearing will be in Japanese.
複合体構造解析の結果、FERMドメインは、NHERFの両親媒性αヘリックス構造を認識するという新しい結合様式を明らかにした。さらに、FERMドメインと相互作用しているNHERFのアミノ酸残基をアラニン置換したものとの結合実験から、結合モチーフMDWxxxxx(I/L)Fxx(L/F) (モチーフ2)を決定した。結合モチーフ1と2のFERMドメイン上の結合部位は異なるが、非常に近接した領域にある。両複合体中での、FERMドメインの詳細な構造比較や結合実験の結果、モチーフ2の結合は、FERMドメインの構造変化を通して、モチーフ1の結合と負に干渉することを見出した。このことは、FERMドメインが接着分子とNHERFとの間で機能的な分子スウィッチとして働くことで、細胞極性の促進と維持に働く可能性を示唆した。
本発表では,まず,テレプレゼンスシステムの分類や従来研究を説明し,本研究の目的と意義を明らかにする.次に,技術的課題として,高精度な全天球動画像の生成や全方位型マルチカメラシステムの移動速度・姿勢の推定に必要となる全方位型マルチカメラシステムの内部パラメータの推定問題と,撮影中の全方位型マルチカメラシステムの位置・姿勢を表す外部パラメータの推定問題を取り上げ,これらの解決手法について説明する.また,推定した全方位型マルチカメラシステムの内部・外部パラメータに基づく画像提示法および歩行装置を用いた画像システムについて述べる.
SOMに限らず多くの手法で、データ間のユークリッド距離が高次元空間と低次元空間でどの程度保存されているかが評価される。 しかしデータの絶対的な量ではなく変化の傾向に基づいた解析を行う際には、ユークリッド距離を使用するよりも、論文中で解説するコサイン距離や正規化距離を使用することのほうが適している。
本発表では、まず螺旋を用いて球面上に任意個数の点を配置する手法について述べ、ついでその手法を用いて構築した球面SOMについて説明する。球面SOMは従来の平面SOMに比べて、正規化距離を用いた解析において距離の保存性が良い傾向が見られる。このため球面SOMはデータ化の変化傾向に基づいた解析に従来のSOMよりも適していると考えられる。
小脳プルキンエ細胞は平行線維と登上線維から入力を受けている。 平行線維入力の後に登上線維入力という入力順序で、 Ca2+濃度が著しく上昇し、 長期抑圧(LTD)というシナプス可塑性が誘導されることが実験で示されていた。 小脳LTDにおけるCa2+濃度上昇のシグナル伝達経路は詳しく分かっているにもかかわらず、 Ca2+応答が平行線維入力と登上線維入力の時間順序を検出する仕組みは不明であった。 私は、小脳LTDのCa2+シグナルの数理モデルを作り、Ca2+ダイナミクスを検証した。 平行線維入力の代謝系経路に時間遅れがあり、 細胞内Ca2+ストア上のIP3受容体が、 平行線維入力によるIP3産生と登上線維入力によるCa2+流入の同時性を検出することを示した。 また、IP3受容体が放出するCa2+によって自身がさらに活性化される、 正のフィードバックが閾値現象を生み出すことを確かめた。
前述のCa2+ダイナミクスモデルでは、 線維入力によるCa2+流入量を微妙に調整しないとCa2+応答の線維入力順序依存性を再現できなかった。 実際の脳でCa2+流入量を巧みに調整する仕組みを調べるために、 Ca2+ダイナミクスモデルと黒田らによる小脳LTDモデルを統合し、さらに改良を加え、 線維入力からAMPA受容体数減少までのモデルを作成した。 新しいLTDモデルに自発発火入力を長時間与え続けると、 AMPA受容体数の初期値にかかわらず、 発火頻度依存でAMPA受容体数が一定の範囲に収束した。 AMPA受容体数が多いと自発的発火によってCa2+濃度が上昇しやすくなり、 Ca2+依存性酵素が活性化してAMPA受容体を抑えてCa2+流入量が減るという 負のフィードバック機構がAMPA受容体数を調節していた。 自発発火頻度が高いほどAMPA受容体数が少なく抑えられ、 そのあと平行線維と登上線維の組み合わせ入力でLTDを誘導するには より激しい平行線維入力バーストが必要になった。 自発発火頻度が高い入力は感覚刺激時のバースト入力も激しいと仮定すると、 自発発火によるAMPA受容体数の収束は、 平行線維と登上線維の組み合わせ入力で特異的にLTDが誘導されるように Ca2+流入量を調節しておくメタ可塑性といえる。
本発表では,はじめに,上記問題点を改善する新しいICAアルゴリズム (最小二乗型Single-Input Multiple-Output (SIMO)モデルに基づくICA (SIMO-ICA)(SIMO-ICA-LS)と情報幾何学習型SIMO-ICA (SIMO-ICA-IG))を 提案する.ここで,"SIMO"とは入力信号が単一で且つ出力信号が各マイ クロホンで観測される,入力信号が伝送された信号であるような伝達シ ステムのことを示している.両SIMO-ICAは観測された混合信号をモノラ ル信号に分離するのではなく,各マイクロホンで観測された各音源から のSIMOモデルに基づく信号に分解する.
次に,SIMO-ICAの初期フィルタ依存性を改善するために,初期フィルタ 自己生成器(SG)を提案する.SGは頭部伝達関数行列バンク,周波数領域 ICA,single talk区間検出,音源方位推定の各モジュールにより構成さ れ,これら全てブラインドに動作する.従って,SGはSIMO-ICAの前処理 として機能することが可能であり,SIMO-ICAに最適な初期フィルタを自 動生成することが可能である.
更に,上記SIMO-ICAとSGを併用したシステムを用いて,従来実現が困難 と言われた音響拡張現実感システムを提案する.本システムは,ユーザ の耳元に装着したイヤホンマイクロホンで収録された音響信号から空間 情報を失うことなく,特定の音を抽出・再現するシステムである.
各トピックにおいて,実環境における音源分離実験を通して,提案法の 有効性を検証を行う.
そこで,独立成分分析と品質工学に基づくシステムの新しい評価手法を提案する.特に実応用の立場から,外乱の影響の下でのシステムの振る舞いに着目し,3種類の品質評価手法を提案し,その効果を実験によって評価する.
まず,独立成分分析でよく知られた信号分離法を改良し,センサ信号から外乱の影響を除去することによってシステムのパラメータ変化をリアルタイムで検出する手法を述べる.この手法は機械システムの故障検出に有用であるため,柔軟構造体による実験によって確認した結果についても述べる.
次に,伝熱システムのように応答が遅いシステムを評価する場合には,外乱の分離のために必要なデータを集めるのに多くの時間が必要になる.実用上は,外乱を分離するよりも,外乱の影響を受けたデータからシステムの評価ができれば望ましい.そこで,判別分析におけるマハラノビスの距離によって,基準とする片側だけの群を外乱影響下で取得したデータも含んだ多様なデータ群から作成する.この基準とする群からの距離の大小により,システムの評価を試みる.これらの実験結果について述べる.
最後に,家電商品などの組み込み温度制御システムでは,消費者の様々な使用方法や使用環境が外乱となる.特に季節や使用場所による外気温の変動は制御性能に影響を及ぼすので,外気温変動を考慮した設計でなければ商品クレームとなりかねない.そこで,商品開発などに用いられているタグチメソッドを適用し,誤差因子として外気温の変動を割り付け,外気温変動に強い制御パラメータの設計を試みる.これらの実験結果について述べる.
本研究では枯草菌のEra/Obgスーパーファミリーに所属し、細胞の増殖に必須であるタンパク質群(Era, Obg, YsxC, YlqF, YphC, YqeH)の機能解析を行った。その結果、これら6種類のGTP結合タンパク質全てが、リボソームの生合成に必要な因子である可能性を見いだした。さらに、YlqFについて詳細な解析を行った結果、GTP型のYlqFが50Sサブユニットに結合すること、YlqFのGTP加水分解能が50Sサブユニットによって特異的に促進されること、YlqFが50SサブユニットのAサイトとPサイトの周辺に結合すること、そして、枯草菌細胞内でYlqFが枯渇すると、70リボソームが減少し、リボソームタンパク質L16とL27を失った未成熟な50Sサブユニットが蓄積されることを見いだした。以上の結果をもとに、50Sサブユニットの後期生合成過程における、YlqFの役割のモデルを提案する。
強化学習は優れた特性を持っており, 霊長類の基本的な行動原理であると考えられているが, 学習速度が遅く環境の変動に弱いという弱点がある. それらを解決するために環境の予測モデルを用いる手法が考えられるが, 本研究ではその手段としてMOSAICモデルを用いる. MOSAICモデルでは他者の内部状態も予測モデルの対象となっており, コミュニケーションの研究に関しても有用であると思われる.
本発表ではまず MOSAICモデルに基づいたモジュール構造を持つ2つの強化学習アルゴリズムについて説明する. そして後半では階層型モジュール強化学習を用いたコミュニケーションのモデル化について説明する. 我々がコミュニケーションを行う際, 観測された他者の軌道からその裏に隠れた高次の情報を推定している事は想像に難くない. その推定は一般に不良設定問題となるが, 提案するモデルでは他者エージェントもMOSAICモデルを基礎とし, 似たような階層構造を持っていると仮定することで 他者がどのモジュールを用いているかが推定できる. 他者が使用しているモジュール系列をまねる見まね学習と 他者のモジュール系列に応じて自身の行動選択を行う協調作業の枠組みを定式化する.