本研究では,細胞内での自由な光ピンセット操作を実現することを目的として,パルスレーザー光を光ピンセットのアシストに用いて操作する手法であるPLAT (Pulse-Laser-Assisted optical Tweezers) を開発し,パルスレーザーを改良することで使用用途に沿った性能を発揮させることに成功した.
本発表ではまず,本手法の原理であるパルスレーザーにより発生する放射圧の力について概説し,それを利用したPLATのメカニズムについて述べる.
次に,通常の光ピンセットでは操作することのできない試料である,カバーガラス基板に固着させた粒子を用意し,それらを取り外す実験によりPLATの効果を実証する.そして,PLATにおけるパルスレーザー光のパルス幅の重要性について述べ,操作対象によって好適なパルス幅を
選択することで効率よく操作できるようになることを報告する.
本研究で用いたパルス幅は6 ns,20 ns,160 ns,150μsの4種類であり,各パルス幅の効果を粒子の取り外し実験と誘電破壊確率を調査する実験結果について報告する.
更に生体への応用として,細胞表面に吸着した粒子を取り外す実験や,細胞内部に取り込まれた粒子を摘出する実験について報告する.
また,パルス幅だけでなくパルス波形についてもPLATの効果に影響があるかを確認するため,パルス波形を変化させての実験も行ったが,効果は限定的であった.
以上の一連の実験から,PLATにおいて使用するパルスレーザーのパルス幅についてnsオーダーからサブmsオーダーの範囲で見込まれる効果を整理し、用途毎に選択すべきパルス幅について指針を示す.
本発表では,制御Lyapunov関数を用いた制御系設計法における 二つの未解決問題について,それぞれを解決する制御系設計法を提案する. 具体的には,以下の二つの課題に取り組んだ.
(1)凸入力制約を考慮した制御系設計
従来研究では,入力制約のクラスとして「ノルム制約」を対象としていたが,
プレフィードバックを用いた制御系設計など,
現実の問題では入力制約がノルム制約にならない場合がある.
そこで,本研究ではより一般的な入力制約のクラスとして凸入力制約を考え,
凸入力制約を持つ非線形システムに対して,制御Lyapunov関数を用いた制御系設計を行う.
具体的な設計プロセスは,まず凸最適化を用いて制御Lyapunov関数の微分を最小化する入力(最小化入力)を導出し,次に最小化入力を連続な関数に変換する.
提案する設計法は,従来のノルム制約を考慮した設計法の自然な拡張となっている.
(2)局所LQ最適性を持つ大域逆最適制御則
非線形制御系設計において,局所的に線形制御系と一致するように
制御系設計を行うことは重要な課題であり,
制御Lyapunov関数を用いた制御系設計においても研究が行われている.
しかしながら,従来の方法は厳密線形化可能な1入出力システムのみを対象としており,
設計過程が複雑であるという問題がある.
そこで本研究では,厳密線形化可能な多入出力系に適用可能であり,
線形近似系に対するLQ最適制御則から容易に変換可能な
大域逆最適制御則を設計する.
さらに,提案する制御則がゲイン余裕を持つことを示す.
また,提案した二つの制御則の有効性について, 数値シミュレーションと磁気浮上系による実機実験により検証を行った結果を示す.
近年,非線形入力アファインシステムに対する制御Lyapunov関数(CLF)を用いた大域的逆最適制御が収束速度を保証する制御手法の1つとして提案されている.この手法は,局所的同次近似システムを参照することで局所制御性能を保証する大域的制御則を設計している.また,同次次数の選び方によって,有限時間整定制御則を設計することが可能である.しかしながら,これまで実機実験による制御則の有効性は確認されていない.
まず,拡大付き同次システム,システムの安定性,収束速度およびCLFについて説明し,収束速度を保証する大域的逆最適制御則について紹介する.
次に,1リンク機械システムを用いた有限時間整定位置決め制御を行う.1リンク機械システムは不連続な摩擦を含むので,不連続微分方程式によってモデル化される.この不連続性のため,前段で紹介した大域的逆最適制御則の有限時間整定性は保証されないことに注意する.そこで, 1リンク機械システムの制御問題に対して大域的逆最適制御則が有効であることを確認し,コンピュータシミュレーションおよび実機実験により有限時間整定制御則の有効性を明らかにする. 実機実験において,その他の収束速度を持つ指数安定化制御および有理安定化制御との比較と,その他の有限時間整定制御手法との比較を行い,本研究で用いた大域的逆最適制御則による有限時間整定制御の制御性能を検証する.
最後に,同次近似システムに代え,入力変換を利用した同次システムを参照することで収束速度を保証する大域的逆最適制御則を提案する.これにより制約条件が緩和され,同次近似システムを持たないシステムに対しても収束速度とセクタ余裕を保証する大域的制御則が設計できる.コンピュータシミュレーションを用いて提案法の有効性を確認し,2リンク機械システムを用いた実機実験およびコンピュータシミュレーションにより提案法によって設計した有限時間整定制御則の有効性を検証する.
The framework of linearly solvable Markov decision processes (LMDP) greatly simplifies reinforcement learning. By attending specific conditions the Bellman equation can be made linear, and it becomes possible to obtain solutions more efficiently. However, it is necessary to previously know the passive dynamics of the system (i.e. the behavior of the system in the absence of controls) which is crucial in the model, but unknown in general.
A method to calculate such passive dynamics distribution (by performing continuous embedding of known traditional MDPs) exists, but requires the previous knowledge of all transition distributions and all immediate costs. Those are usually not known beforehand in temporal difference methods. Such methods require the agent to explore the environment and learn by trial-and-error.
Here we propose a method to estimate the passive dynamics and state costs of a given system. Such system can then be modeled as an LMDP. The method can also be combined with a temporal difference algorithm of the LMDP framework (called Z learning). This enables the direct application of Z learning without the need for explicit knowledge of passive dynamics nor state costs beforehand. The only required knowledge about the passive dynamics distribution of the system is which states can and which cannot be visited starting from each state. During the application of the method, new constraints regarding the passive dynamics and state costs are successively incorporated in the model from observed information of immediate costs. The resulting algorithm properly estimates the desirability and optimal cost-to-go functions, as well as the passive dynamics and state costs, when solving the resulting constrained optimization problem.
The convergence speed of the new algorithm is not significantly affected when compared to pure Z learning. This represents an important breakthrough for the LMDPs framework because it allows such framework to be applied directly in a real temporal difference approach.
QWERTY replica keypads migrated from typewriters to computers and now to touch screen handheld devices. It's the most common mode of input and for most languages, it's the only choice available to users. The multi-tap T9 keypads are also in use. Applications like Dasher are also available. Touch screen systems have their own dynamics that demand designing novel input systems with better usability, more user friendliness and higher performance. The generic keypads lack these qualities when deployed on touch screen platforms, particularly the small touch screen gadgets such as smart phones and PDA (Personal Digital Assistant) etc.
"Hygiene" has been ignored since long by input system designers. RSI (Repetitive Strain Injuries), CTS (Carpel Tunnel Syndrome), CTD (Cumulative Trauma Disorder), ophthalmic endemics and eyesight weakness etc. are few among many health hazards caused by regular and prolonged use of computers. RPA (Resting Point of Accommodation) and Convergence prospects are important design time considerations. Small touch screen input designs have been inspired by greedy approach in order to "accommodate more in less". Limited screen area appears cluttered with too many buttons and icons etc. that puts more strain on eyes due to acute and meager visibility. Keeping foremost focus on user's health at design time, we developed "hygienic" touch screen keypads that facilitate fast, correct and easy composing.
We live in the age of touch screen gadgets boom. Touch screen gadgets come in various sizes, shapes, platforms and other specifications. We categorized touch screen devices in three different sizes; small, medium and large size devices and proposed three distinct keypads for each of these categories. Each of these has been optimized for accurate, easy, speedy and efficient typing. Our proposed keypads offer better visibility, usability, extendibility, aesthetics and user friendliness.
Composing Urdu is a thorny task on modern touch-screen devices. Design and development of optimal keypads for Urdu is complicated due to complex orthography and relatively large letter-set. We introduced a new Urdu Romanization technique that suit small touch screen devices. We successfully reduced the Urdu alphabet set by 22.7% from 58 to 38 letters. Our proposed keypads are optimized for Urdu but applicable to Arabic, Persian, Punjabi and other Perso-Arabic script languages too. With minor changes in the backend script settings, our proposed keypads are applicable to non-Perso-Arabic script languages with larger letter-sets e.g. Hindi etc.
We carried out evaluation of our proposed keypads in two ways. Automated procedures showed improvement by 52.62% over in-the-market generic keypads for small screen gadgets. Medium size screen keypads showed 57.06% improvement. We conducted users' evaluation for real world performance comparison. Detailed results are presented in the subsequent chapters.
We used a high-resolution 3-D coronary heart CMRA scan to create a voxelized phantom and serve as the reference image in our simulation platform. This image was used as a template to simulate the effects of respiratory motion on CMRA scans. The resulting deformed and motion-affected 3-D coronary scan are then applied with different respiratory motion correction methods. The resulting corrected images are quantitatively measured in terms of image quality to compare the effectiveness of these correction methods. The goal is to determine the most suitable motion correction method for a certain patient or subject who has to undergo a CMRA scan. There is a high intersubject variabiility in the respiratory motion of the heart, thus a subject-specific correction method or factor is needed to improve the quality of the scan.
While there have been a wide variety of resource discovery technologies for a specific type of network such as LAN, MANET, entire Internet, distributed mobile applications for pervasive computing environments raise further challenges: discovering resources in any types of networks according to geographical position, and supporting hundreds of millions of mobile nodes. Some existing solutions are able to handle mobile nodes inside a small network, and others are capable of wide-area resource discovery focusing on the Internet, however, they are dedicated to a specific type of network and do not support geographical location based discovery. The capability of the geographical discovery, appropriate discovery scope selection, and mobility support for huge numbers of nodes are essential for future resource discovery systems.
This dissertation presents a geographical location based resource discovery mechanism for mobile applications, mainly focused on Vehicular Communication systems. To study the issues and analyze solutions in mobile resource discovery, the dissertation takes two approaches, the one is a small scope resource discovery mechanism for single mobile network relying on IPv6 multicast and the GeoNetworking protocol, and the other is a wide-area geographical mobile resource discovery mechanism in heterogeneous environments composed of numerous mobile networks possibly connected to the Internet. The latter approach is built on a hierarchical publish-subscribe architecture and the GeoNetworking protocol so that users can locate resources according to geographical coordinates without scalability issue. Evaluation results show that the proposed mechanism locates mobile resources among huge amount of candidates according to geographical position without overloading both mobile network and the Internet.
近年,ソフトウェアが果たす社会的役割が重大になっており,ソフトウェアを高品質に開発する必要性が高くなっている.そのためには,ソフトウェア開発プロジェクトではプロジェクト発足時に開発計画を立案し,計画に沿って開発を行う.しかし,当初の計画とプロジェクト終了時の実績には隔たりが存在する.すなわち,プロジェクトの実施中には当初の開発計画に含まれない作業が多く発生し,そのたびに開発計画が改訂され,その結果,開発プロセス全体が複雑化する.開発プロセスの複雑化はソフトウェアの品質(プロダクト品質)に重大な影響を与えるが,その影響を定量的データに基づいて予測することはこれまで困難であった.本研究ではプロジェクト実施中に発生する追加作業に着目したプロセスの複雑さの尺度を提案し,プロダクト品質との因果関係を検証する.
本研究では第一にソフトウェア開発実施中に追加発生する並行作業に起因するプロセス複雑さの増大を定量的に表現するための尺度を提案した.提案する尺度は工程管理表に記載される開発者数,期間,並列作業数等の計測値に基づいて求める.本尺度は,ソフトウェア開発プロセスの複雑さがプロダクト品質に与える影響の有無を定量的に検証するために用いる.
第二に,提案するプロセスの複雑さ尺度の有用性を検証するためケーススタディとして,授業支援システム「p-HInT」の開発,運用に参加した.「P-HInT」システムは産学連携で開発した授業支援システムであり,開発への参加を通じ,開発中の議事録や映像記録,メールログなどの実証データを収集することができた.収集されたデータは提案するプロセスの複雑さとの因果関係を分析するために利用する.
最後に, 「p-HInT」システムおよびそれ以外のプロジェクトから得られた実証データを用いて,提案するプロセスの複雑さを適用した.検証では,プロセスの複雑さとリリース後に発生した致命的な障害との関係,および,各プロジェクトの特色とプロセスの複雑さの関係について分析を行った.また, 「p-HInT」システムの開発プロセスを対象に,複雑さの変化と開発中に発生した問題点との因果関係について詳細な分析を行った.その結果,リリース後の致命的な障害とプロセスの複雑さには相関を確認することができた.
本発表では,まずソフトウェア開発プロジェクトにおける問題点とソフトウェアメトリクスについて概説する. 次に提案するソフトウェア開発プロジェクトに発生する追加プロセスを定量的に計測するプロセスの複雑さ尺度について述べる. また,プロセスの複雑さとプロダクト品質の因果関係を調査するために開発に参加した「p-HInT」プロジェクトについて述べる. 最後に提案するプロセスの複雑さとリリース後のプロダクト品質の関係を調査した結果を報告し,本研究をまとめる.
本発表では,提案手法である再構成可能な動作データベースの構築方法と,ジェ スチャの実時間生成を提案し,その基本的な原理について述べる.データベー スの構築には,自然言語処理の類似文章分類手法の1つであるBag-of-wordsを, 類似動作分類手法として応用した.このとき,動作軌跡を周波数空間で扱うこ とにより,ジェスチャ自身が持つ意味的な類似尺度を基に,高速に分類するこ とが可能となる.得られた類似動作は,動的計画法により,より詳細に分類が 行われ,各類似動作群,つまり各ジェスチャには適当なパラメータ(例えば, 手差し動作の場合,目標手差し位置と顔の方向)が与えられる.このパラメー タを基に,現在のインタラクションに適した動作が生成されるよう類似動作同 士が合成される.また,インタラクション実行中のスムーズかつ安全な割り込 み手法を合わせて提案することにより,相手の対話に対して瞬時に応答を返す ことが可能となった.
最後に,提案手法をアンドロイドActroid-SITに実装することで開発した,多人 数とのインタラクションが可能な自律HRIシステムの設計仕様を述べる.累計 1,500名以上が参加した被験者実験の結果から,従来システムと比べ,応答時間, 対話時間,ロボットへの対話開始率,ロボットの印象などの評価項目において 得られた有意性に関しても合わせて報告する.
センシング技術の1つとして,広範囲に検出領域をもつ漏洩同軸ケーブル(LCX:Leaky CoaXial cable) による侵入者検出が注目されている. このLCXを用いた侵入者位置検出システムは,送信,受信用の2本のLCXを設置し,送信ケーブルから測距用広帯域信号を送信する.受信ケーブルで得られた受信信号と送信信号との相互相関を求めることで,送信端と受信端の間のインパルス応答を求める.そして,このインパルス応答の変動量を測定することで侵入者の有無,及び位置の検出を行う. しかし,LCXを用いた侵入者検出システムは,熱雑音や風によるケーブルの揺れが原因となる誤検出が大きな問題となる.
この問題に対する解として,受信信号から遅延時間とドップラー周波数を示すチャネル散乱行列を得ることで,侵入者成分と外乱成分を分離した上で侵入者の位置を推定する処理が考えられるが,従来手法であるLeast Square(LS) 方式を用いた場合,雑音成分が強くなると外乱成分の分離に影響を与え誤検出率を増大させてしまう. そこで,本論文ではCompressed Sensing(CS) を用いた方式で雑音成分を除去した上でチャネル散乱行列を得るアルゴリズムを提案する. CSは,l1再構成と呼ばれる問題を解くことでスパース解の推定を高精度に行うことが可能であり,これを侵入者検出システムに用いることで誤検出率を改善することが可能になる. また,CS方式において問題となる計算量増大に対する一つの対処として,CS方式とLS方式を組み合わせた方式も提案し,計算機シミュレーションを用いて3方式の誤検出率を比較し,評価を行った. その結果,LS方式と比較してCS方式及び組み合わせ方式の誤検出率がそれぞれ,1/10, 1/5に改善されることが確認された.
次に,より大幅な計算量の削減行うため,CSにおけるスパース解の推定方式の1つであるMatching Pursuit(MP)を用いて侵入者検出処理における計算量改善を図る手法を提案する. 本検出システムのように検出処理を連続的に行うことを考えた場合,ある時間tとt+1の間で侵入者の移動量は本システムにおいて判別可能な最小距離に比べてわずかであり,得られるインパルス応答において大きな変化が起こらないと考えられる. このことを利用すれば,tの推定結果をt+1の推定に利用することで,処理時間を削減できる. そこで,スパース解の推定でl1再構成問題を解く際に用いられるMP方式における計算量削減アルゴリズムを提案する. 計算機シミュレーションによる評価により,誤検出率を下げることなく,前回の推定結果を利用しない場合と比較して計算量を半分程度に下げることが可能であることを示した.
Speech is one of the principal communication ways for people. Speech conveys not only linguistic information but also emotion and speaker individuality. Moreover, singing voices which are produced by adding rhythm and tone to speech is widely used by many people as one of the musical instruments. Speakers' and singers' voice quality is determined by physical constraints in the speech production mechanism. This limitation of voice quality causes several problems. In this thesis, two of them are focused on.
One problem is vocal disorders caused by the total laryngectomy. The total laryngectomy is surgical operation to remove larynx including vocal folds due to laryngeal cancer. People who have undergone total laryngectomy, called laryngectomees, cannot speak in the same manner as non-laryngectomees because they cannot generate excitation sound using vocal folds vibration. Therefore, laryngectomees use alaryngeal speech produced by alternative speaking methods using residual organs or medical device instead of vocal folds to speech communication. Although alaryngeal speeches allow laryngectomees to speak, they suffer from unnatural sound and lack of speaker individuality. In other words, laryngectomees are subject to stronger physical constraints in speech production than non-laryngectomees. The other problem is limited expression in singing. Singers change their own voice quality to sing expressively but the varieties of singing voice quality that can be produced by individual singers are limited due to physical constraints. It is desirable to be able to achieve a new singing style to produce more expressive singing voices beyond the naturally achievable varieties.
To address these problems, new alaryngeal speech enhancement and singing voice quality control methods based on statistical voice conversion (VC) or eigenvoice conversion (EVC) are proposed as a technique to augment speech production beyond physical constraints in this thesis. VC is a technique that is capable of converting speaker's voice into another speaker's voice beyond physical constraints. In VC, a Gaussian mixture model (GMM) of the joint probability density of an acoustic feature between the source speaker's voice and the target speaker's voice is trained in advance using a special data set, called parallel data, that consists of utterance pairs of these two speakers. Any speech sample of source speaker is converted using the trained GMMs so that it sounds like target speaker's speech. EVC is the flexible voice conversion technique that allows us to convert an arbitrary speaker's voice into another arbitrary speaker's voice. In EVC, an eigenvoice GMM (EV-GMM) is trained in advance with multiple parallel data sets consisting of a single predefined speaker, called reference speaker, and many prestored target speakers. The conversion model which convert the source speaker's voice into the target speaker's voice can be easily constructed by adaptation of EV-GMM using a few of their given voice samples in text-independent manner.
The alaryngeal speech enhancement method based on VC, called AL-to-Speech in this thesis, allows laryngectomees to produce naturally sounding speech by converting alaryngeal speech into normal speech uttered by non-laryngectomees. Moreover, this thesis introduces one-to-many EVC, which is one of the EVC techniques, into AL-to-Speech to make it possible for laryngectomees to speak with unique voice quality. This thesis especially treats enhancement method for three types of alaryngeal speech, i.e., esophageal speech, electrolaryngeal speech, and silent electrolaryngeal speech.
The singing voice conversion allows singers to freely control their own voice quality by converting their singing voice into an arbitrary singer's singing voice by using EVC techniques. Furthermore, to easily develop multiple parallel data sets from nonparallel singing voice data sets of many singers, a technique for efficiently and effectively generating parallel data sets using a singing-to-singing synthesis system is proposed to artificially generate voices of the reference speaker, called reference singer in singing voice conversion. The experimental results demonstrate the effectiveness of those proposed methods.
Transitionべースの手法はShift-Reduce法を応用した手法であり,他のアプローチに比べ,高速な解析が可能であるが,解析精度の面では劣ることが知られている. 本研究では初めに,Shift-Reduce法が入力文の局所的な情報しか考慮できないために解析エラーを起こすことに着目し,文をトップダウン型で解析するTransitionベースの手法を提案した. この手法は文全体から単語間の依存関係を予測することが可能で,Shift-Reduce法に比べ,高い解析精度を達成することができた.また,この手法は従来のTransitionベースの手法が持つ,依存構造と導出間の曖昧性(Spurious Ambiguity)の問題を持たないという利点がある.しかし,提案法は時間計算量の点において従来手法に劣る.
本研究では次に,トップダウン型の手法が持つSpurious Ambiguity解消のメリットをShift-Reduce法に応用することで曖昧性の問題を持たないShift-Reduce法を考案した.この手法は従来のShift-Reduce法と比べ,同等の解析速度を達成でき,解析精度の面でも優れていることが実験より確認された.
曖昧性解消はさらなる応用研究を可能にし,その一つは解析結果の出力空間上において,入力に対する出力の事後確率計算が動的計画法によって計算可能であるということがある.これにより出力空間から期待損失が最小となる解析結果を選択することも可能となり,解析精度がさらに向上することが確認された.また,解の出力空間からより精巧な統計モデルによって解を選択し直すリランキング法においても,速度,精度の面で曖昧性解消が効果的であることがわかった.依存構造出力の曖昧性解消は機械翻訳など他の言語処理システムへの応用においても重要な一歩を築いており,その応用はさまざまである.
非線形制御において,非可縮多様体上で定義されたシステムの漸近安定化問題が研究されている. この問題を考える上での主な障害は,非可縮多様体上で定義されたシステムの目標点を大域的漸近安定化する静的な連続状態フィードバックは存在しないことである. これにより,非可縮多様体上で定義されたシステムに対して制御系設計を行う場合, 時変か不連続なフィードバック制御を設計する必要がある.
この問題に対し,なめらかではない制御lyapunov関数の設計法である最小射影法と,制御則設計法が提案されている. また,応用例としてホロノミック移動体の静的障害物回避制御や,剛体の姿勢角制御も提案されている. ところが,非ホロノミック拘束を持つ二輪車両の障害物回避問題に対して最小射影法の適用は行われていない.
非ホロノミック拘束を持つ二輪車両の制御を行うために,コンパクト集合の安定化を考えることが行われている. しかし,最小射影法は,コンパクト集合の安定化問題に適用できない問題点があり,適用できるよう拡張可能であるかどうかは未検証である.
そこで,本論文では最小射影法をコンパクト集合への安定化問題に適用できるよう拡張を行い,応用例として二輪車両の障害物回避制御則を提案する.
提案する集合への最小射影法は,車両の障害物回避問題に対して集合への制御Lyapunov関数が設計できるメリットがある. また,提案する障害物回避制御は大域的な状態フィードバック制御を解析的に導出している点で優れており, 予期せぬ障害物の移動に対して即座に対応できるメリットもあることを示す.
まず,提案受信機の数学的モデルを示し,そのモデルに特性関数を用いた理論解析を行った結果,受信機の存在する領域の判定誤り率の近似式は受信信号の関数となることが分かった.理論解析とモンテカルロシミュレーションの領域判定誤り率の比較を行った結果,誤り率10の-5乗点において高々1.3dBであり,理論近似式が妥当であることを明らかにした.理論近似式から受信機の存在領域を判定できる場所を評価した結果,位置判定誤り率10の-2乗では送信機を中心に2×3mの範囲で判定可能であった.
次に,精度に関しての評価として,4×4mおよび2×4mの空間において平均領域判定誤り率を評価した.その結果,受信信号強度のみを用いて存在領域の判定を行う既存の手法に対して0.4 倍および0.2倍の存在領域判定誤り率となることが明らかになった.さらに,演算量の評価として,領域単位で位置を判定する最小二乗法および学習ベクトル量子化法を用いた既存手法と提案手法の演算量の比較を行った.その結果,既存手法に対して提案手法は10分の1以下の演算量であることを明らかにした.本研究で要求されるハードウェ ア規模を見積もるため,ハードウェア容量が異なった場合の検出精度との関係を評価した結果,本論文の手法はADC 3 ビット,Integrate and Dump フィルタ5ビットで構成できることを明らかにした.
(1)天気が確率的にしか予測できない場合を想定し,任意の天気変化パターンに対応した観光スケジュール群 を算出する問題を取り扱う.このスケジュール群は,出発地点を根として目的地ごとに分岐する木(スケジュール木と呼ぶ) で表現される.本問題の目的は,スケジュール木によって示された確率的なスケジュールのユーザ満足度期待値 の総和を最大化することである.この問題を解くために,欲張り法および局所探索法に基き, 近似アルゴリズムを提案する.提案アルゴリズムは,まず欲張り法を用いて初期のスケジュール木を作成し, 部分木を単位とした目的地の置換を繰り返し行うことにより,期待ユーザ満足度が高いスケジュール木を生成する. 本提案手法では,観光候補地20の場合,欲張り法の平均1.23 倍の期待値を持つスケジュール木を得ることができた.
(2)観光中に休憩を適宜に行うことで体力の範囲内で,複数の目的地に対し,好きな方式で巡る観光スケジュール を求める問題を取り扱う.本問題は,観光候補地を異なる方式で観光する場合の体力消費と得られる満足度をあらかじめ定義し, スケジュール全体で得られる満足度をできるだけ大きくすることを目的とする.この問題はNP困難であり, 問題例の規模が大きい時には,実用時間で最適解を算出することは困難である.実用時間で準最適解を得るため, ヒューリスティックな探索法である捕食法に基づいて複数の観光スポットを廻る休憩なしのスケジュールを求めたうえ, 局所探索を用いて適宜に休憩を差し挟むことで解を求める.本提案手法では,観光候補地10の場合, 全探索で得られた解の95.65%の満足度を有するスケジュールを13 秒で得られることを確認した.
Tracking the 3D pose of a known object is a common task in computer vision and approaches aiming to achieve real-time tracking are in constant development to attend different applications and scenarios. Augmented reality, robotic manipulation and gesture recognition are just some examples where accurate and robust tracking is essential for a successful application.
The main issue addressed in this research is the problem of determining the pose of non-textured 3D rigid curved objects. A common approach for non-textured objects tracking uses an edge-based method combined with a wireframe model representing the object shape. Control points are sampled along the model edges and matched with strong gradients detected in the video image. The final pose is then obtained after an optimization process.
However, dealing with curved objects using edge-based tracking is not straightforward, mainly because their edges are not static; instead, they change according to the viewpoint - feature defined as the apparent contour of the object. Furthermore, in order to accurately recover the shape of curved objects, high quality meshes are required, creating a trade-off between computational efficiency and tracking accuracy. Previous works in this context usually imposes some restriction, either in the object shape (e.g. dealing only with simple shapes, resembling some curved primitive) or in the motion of the object.
Considering these shortcomings, this dissertation proposes a novel model-based framework for tracking curved objects using sparse polygonal meshes. To achieve this, a quadrics patch representation was developed, where a general quadric equation is calculated offline for each patch in the mesh and used to give smooth local approximations of the object contour. During tracking, instead of using the edges from the mesh, curves representing the projection of the quadrics are used. With this representation, simple and complex shapes can be handled, being computationally efficient while keeping tracking accuracy.
Furthermore, a method to calculate the number of observable Degrees of Freedom (DoF) of the target object was also included to avoid wrong pose parameter estimation for objects having less than six DoF. It is also used to deal with objects whose number of observable DoF changes according to the viewpoint, being able to recover one missing DoF. The effectiveness of the proposed framework is proved through quantitative and qualitative experiments, comparing our approach and the traditional method using sparse and dense meshes. Results are presented using both synthetic and video image data. A further qualitative evaluation was performed with development of an augmented reality application for rapid prototyping, which was evaluated through a user study and also achieved positive results.
For bug and patch processes, we quantitatively re-established Lehman's law between maintenance effort and code complexity. With three open source software (OSS) projects and a closed experiment, our proposed metrics proved this relationship to be statistically significant.
For peer review processes, we developed two models to assist OSS members identifying their social standing and career trajectory. SPI is achieved by more efficient and higher quality reviews, through the identification of expertise. Providing a career trajectory model encourages member participation, thus it promotes the sustainability of peer reviews within a project. Our techniques and approaches validated the application of MPA for software maintenance. We concluded that micro processes could serve as supplements to macro processes, therefore providing an added dimension to SPI.
This work addresses the topic classification of spoken inquiries in Japanese by comparing the performances of three supervised learning methods with different characteristics: support vector machine (SVM) with a radial basis function (RBF) kernel, PrefixSpan boosting (pboost) and the maximum entropy (ME) method. SVM robustly finds boundaries among topics even when data are not linearly separable, whereas pboost performs feature selection and classifies by checking for the presence of optimal discriminative subsequence patterns in the input. On the other hand, ME estimates probability distributions from data and allows multiclass classification.
An evaluation using words or characters as features for the classifiers is also performed. Using characters as features is possible in Japanese owing to the presence of kanji, ideograms originating from Chinese characters that represent not only sound but also meaning. The differences among the three classifiers allow them to compensate each other's performance. Because of this, the usage of a stacked generalization (SG) scheme that combines their predictions to achieve greater classification performance is proposed.
Analyses on the performance of the above methods and their combination in the topic classification of spoken inquiries from a speech-oriented guidance system operating in a real environment were carried out. Experimental results show that the three methods individually produce some prediction errors that do not overlap, and that the SG scheme improves the topic classification performance by correcting some of them. There was an F-measure of 86.87% for the classification of ASR results from children's inquiries with an average performance improvement of 2.81%, and an F-measure of 93.96% with an average improvement of 1.89% for adults' inquiries when using the SG scheme and character features.
However, higher CNR (Carrier to Noise Ratio) condition is necessary when using multi-level modulation because the signals are tightly aligned on the constellation. Conventional satellite amplifier must be operated with large backoff to avoid the nonlinear distortion. Satellite systems with superposed signal must also be operated with large backoff because of the inter-carrier interference caused by the amplifier's nonlinearity. In these cases, power efficiency of satellite amplifier will decrease due to a large backoff.
In this presentation, a novel nonlinearity compensation scheme to suppress the nonlinear interference and to use satellite transponder's power more effectively for more channel capacity is proposed. Here a nonlinearity compensation scheme for the receiver side is considered because of the implementation cost and the effect to the system. Then the compensator is implemented to the receiver of two typical satellite networks, multi-level modulated network and carrier superposed network, for performance evaluation. As a result, it is confirmed that the proposed scheme has avoided the degradation caused by amplifier's nonlinearity in both networks.
This research is divided in two parts. First we consider upper bounds in the decision tree model. Here we study Quantum Walks, a very powerful paradigm for the design and analysis of quantum algorithms. Clear mathematical foundations are still lacking for this paradigm. Hence, as a step toward this objective, the following question is being addressed: Given a graph, what is the probability that a quantum walk arrives at a given vertex after some number of steps? This is a very natural question, and for classical random walks it can be answered by different combinatorial arguments. For quantum walks this is a highly non-trivial task. Furthermore, this was only achieved before for one specific coin operator (Hadamard operator) for walks on the line. Even considering only walks on lines, generalizing these computations to a general SU(2) coin operator is a complex task. The main contribution of this part is a closed-form formula for the question above for a general symmetric SU(2) operator for walks on lines. As a second contribution, we show how some basic properties of the walk can be deducted by means of weak convergence theorems for quantum walks.
In the second part of this research we focus on lower bounds in communication complexity. In particular, quantum nondeterministic multiparty communication. There are three different types of nondeterminism in quantum computation: i) strong, ii) weak with quantum proofs, and iii) weak with classical proofs. Here we focus on strong quantum nondeterministic protocols where a correct input is accepted with positive probability, and an incorrect input is rejected with probability 1. By extending the definition proposed by de Wolf to nondeterministic tensor-rank (nrank), we show that for any boolean function f, when there is no prior shared entanglement, the strong quantum nondeterministic communication complexity 1) is upper-bounded by the logarithm of nrank(f) in the Number-On-Forehead model; and, 2) in the Number-In-Hand model it is lower-bounded by the logarithm of nrank(f). One application is a new lower bound for the generalized inner product function in the Number-In-Hand model. As another application we show that when the number of players in the protocol is o(\log\log n) we have NQP is not included in BQP in the Number-On-Forehead model.
Among these technologies, one recent major technique is to use Razor Flip-Flop to help apply aggressively the well-known low power method DVS(Dynamic Voltage Scaling). With Razor FF detecting setup errors, the supply voltage in these processors is downscaled to a near critical setup timing level for a maximum power consumption reduction. However, the conventional Razor and DVS combinations cannot tolerate well error rate variations caused by IR-drops and environment changes. At the near critical setup timing point, even a small error rate change will result in sharp performance degradation. This dissertation proposes RazorProtector, a DVS application method based on a redundant data-path which uses a multi-cycle redundant calculation to shorten the recovery penalty after a setup error occurrence.
A dynamic redundancy-adapting scheme is also given to use effectively the designed redundant data-path based on a study of the program, device and error rate characteristics. This dissertation employs a metric DCF (Delay Criticality Factor) to measure the sensitivity to the setup error of each calculation type. The results show that RazorProtector with the adaptive redundancy architecture can, compared to the traditional DVS method with Razor FF, under a large setup rate caused by a 10% unwanted voltage drop, reduce Energy Delay Product(EDP) up to 61% at 100us/V, 85% at 200us/V voltage scaling slope.
This dissertation also applied a program characteristic-based tuning method in this paper to dynamically adapt the redundancy level of RazorProtector. The most related parameters, including ILP(Instruction Level Parallelism) and DCF are selected and effectively reflected in the tuning to give an adaptive redundancy dynamically. The simulation results show that under a workload suite with different behaviors, the adaptive redundancy can achieve better EDP reduction than any static controls. Compared to the original DVS method, the proposed dynamic control achieves an average 56% EDP reduction for the interested workloads in benchmark applications.
本研究は,これら装着位置のずれと,迷光がSpO2測定値に与える影響を実験によって明らかにし,精度向上を実現するセンサの構造を検討することを目的として行ったものである.
はじめに,装着位置のずれの影響について,健常成人6名でセンサの発光部と受光部が対向する位置と,90°ずれた位置でSpO2測定を行い,受光位置の違いにより生じる測定値の差を確認した.その結果,対向位置に比べ90°位置の測定値が全例で低値となったが,その平均値の差は-0.63%であった.
次に,迷光の影響について,センサを適正な装着位置から1mmずつ横方向にずらし迷光を発生させながら,健常成人6名でSpO2測定を行い,迷光と測定値の変化を確認した.その結果,迷光の増加によりSpO2値に誤差が生じ,また,発光部もしくは受光部のいずれか一方を指に密着固定させると,他方がずれても大きな誤差は生じなかった.加えて,この迷光によるSpO2測定誤差のメカニズムをモデルにより説明した.
これらの実験結果から得た知見に基づき,小児用センサを試作し,その効果を乳児の細い指で確認した.試作したセンサは,迷光を遮光し,入射光の漏れを防ぐ効果のある黒色のテープを,市販のセンサの構造に追加したものである.乳児の第1指と第4指でSpO2を測定し,従来のセンサと測定結果を比較した.試作センサでは,迷光の影響を受けず,細い第4指で太い第1指と同等の精度でSpO2を測定することができた.従来のセンサでは装着部位として適用外である細い指でも,迷光を排除して測定できるようになれば,未熟児,新生児のSpO2測定精度を向上できる可能性が示唆された.
本研究の目的は,顎口腔系の運動機能を計測・応用する新たな手段を開発し,それらを用いて,医療・福祉分野において適用する手法を提案することにある.
本研究では,まず,乳児の哺乳行動に着目し,吸啜時において主体的に動く舌運動の計測を行うために,小型力センサを複数個内蔵した人工乳首を開発し,舌と人工乳首の接触圧を計測した.従来,吸啜時における乳児の矢状面断層画像の動的観察により,舌表面の隆起部が乳首の基底部から先端にかけて動く様子が明らかになっている.本研究では,本人工乳首を乳児の口腔内に挿入した結果,人工乳首に加わる接触圧の変動が約2 Hzであること,人工乳首の基底部と先端に設置した力センサの出力について,それらが最大値に達する時刻に差があることが示された.さらに,所定の位置に加わる力を計測することが可能な点接触型力センサを開発し,人工乳首に加わる力の重心が基底部から先端へと動く様子が明らかになった.これらの結果は,乳首に加わる力から乳児の舌運動が計測できることを示唆している.
次に,下顎の上下運動および舌の巧みな動きに着目し,それらを独立2系統の入力手段として用いる口腔装着型コンピュータ入力システムを構築した.本システムの有用性を調べるために,日本語50音,濁音,半濁音,句読点が入力可能な入力用ソフトウェアを開発し,実験を行った結果,安定した操作が可能であり,単音あたり3 s〜4 sで入力できることが示された.また,楽器演奏が可能なソフトウェアをあわせて開発し,エンターテインメント分野へ応用できる可能性を示した.
以上より,本研究で提案した手法の有用性が示された.すなわち,力センサ内蔵人工乳首は,吸啜時における乳児の舌運動計測について,簡便かつ定量的な手法を提供することができると考えられる.また,下顎と舌を併用するコンピュータ入力装置は,四肢を用いない新たなコンピュータの操作手段として有用であると考えられる.
本論文は,PSPを用いた新たな循環計測技術の開発を目的に行った研究について論ずる.
第1章では研究のベースとなる色素希釈法(dye densitometry)について解説するとともに,pulse oximetery, pulse dye densitometryが開発されるまでの技術背景および測定原理について述べる.
第2章では末梢循環で計測されるPSPのメカニズムについて研究した.健常ボランティア6例で手の高さを,@テーブル上:middle,A頭上:up,B下げる:down,として減光度比とSpO2を測定した結果,手を下げた状態では減光度比が増加し,SpO2を過小評価する誤差が発生した.6例のSpO2のmean±SDは,middle,up,downでそれぞれ98.0±1.28,98.4±0.84,96.3±1.69(%)だった.新たな末梢血管電気回路モデルを提案しシミュレーションを行い,手を下げた状態で減光度比が増加するメカニズムを表現することができた.
第3章ではPDDにより得られる平均循環時間MTTを用いてCOを推定する数式モデルを提案作成し,臨床データを用いて測定精度の評価を行った.MTTを用いたモデルで計算したCOと熱希釈法のCOとを比較した結果良好な相関が得られ,より簡単に心拍出量を推定できる可能性が示された.
PSPは患者に負担をかけずに生体計測情報を得るこが可能であり,PSPを応用した新たな生体計測技術の開発は,患者の安全に寄与しQOLを向上するだけでなく,病院外での健康管理などにも広く貢献していくものと考えられる.
キャラクタロボットを遠隔地から操縦することで,これらの問題点を解決する.単純に人間の動きをロボットに伝達するのではなく,"キャラクタロボットをキャラクタらしく動かす"ことを目的とし,"決めポーズ","ジェスチャ対話","踊り","握手抱擁"などの動きを単体のデバイスで実現する.
提案手法は,比較的自由な姿勢入力が可能なパペット型デバイスに,シミュレータ同期による動作安定化や,動作データベースを利用した「キャラクタらしい動き」への補正,あらかじめ覚えさせた決めポーズや一連の動作へ自然に移行するため「ジェスチャ呼び出し」機能を組み合わせることで,キャラクタロボットの操縦を行う.実際に入力デバイスを作成し,姿勢を高速に作成できることと,モーションキャプチャなどと比べて正確に決めポーズを再現できること,動作補正によってキャラクタらしい動きを再現できたことなどを実験で確認した.
また,実機のロボットに接続して操縦を行った.着ぐるみの代わりにロボットを使うことでサイズ制限がなくなり,30cm程度の小型ロボットから4mクラスのキャラクタロボットまで,様々なロボットで実証を行った.
DOT reconstructs three-dimensional tomographic images of brain activities from observations by near-infrared spectroscopy (NIRS). We present a method for the NIRS-DOT based on a Bayesian method introducing the sparse prior and the variational Bayes technique. Through numerical experiments and theoretical analyses, we show that the sparseness with respect to the hyperparameters has phase transition.
Packet loss rate estimation is a inverse problem in communication network. There are two kinds of methods to measure packets: active and passive. The conventional methods for the estimation utilize only active measurements. We propose a method to utilize passive measurements also with using expectation and maximization algorithm. In the limit, the M-step of the algorithm reduce to the compressed sensing. We show through numerical experiments that our method outperforms the conventional algorithm with only active measurements in the estimation accuracy.
Through the two subjects, the results indicated that the sparse Bayesian approach can be useful to the inverse problems.
In this research, we propose a framework for such a robotic trainer that is useradaptive, and that does not require a specific desired trajectory nor the physical model of the user's motor system, which is achieved by a model-free reinforcement learning. We chose darts throwing as an example motor-contrl task as it is one of the simplest throwing task, and its performance can be easily and quantatively measured by score. Training experiments with novices, aiming at maximizing the score of the darts and minimizing the physical roboticv support demonstrate the feasibility and the plausibility of the proposed framework.
提案システムでは,入力を,システム利用者の年齢,血液型,学歴,趣味,年 収などの属性情報とし,出力を,カップル成立の可能性が高い合コン参加者名簿 とする.ECの解候補は,好相性と思われる属性の組合せを表現しており,それ ぞれ異なった合コンに対応させる.解候補に似た属性情報を持つ男女をその解候 補に対応する合コンに割り当てる.その後,合コンを行い,得られた結果(カッ プル成立数)を,その解候補に評価値(適応度)として与える.その後,評価値 付きの解候補群に対しEC 演算を加える.以上の流れを繰り返すことで,高い評 価値を持つ解が解集団内に残っていく形で好相性の準最適解集団を求める. 本研究では,一つの最適解を求める手法を提案し評価を行った後,相性空間の ような多峰性関数の複数極大値算出手法として,類似の解が増えないように工夫 したEC の選択法を導入し評価を行った.相性空間(男女の属性の組が取り得る 値の範囲)は多峰性であり,多様なカップルを成立させるためには,EC によっ て,この多くの峰を求める必要があるからである.合わせて,少ない合コン回数 でより良い解を得ることができるよう,実際の合コンを行わずに,過去の合コン 履歴を活用して任意の解に評価値を与える方法を導入した.
提案システムを評価するため,N個のピーク(好相性の男女の属性情報の組合 せに相当)を持つ多峰性関数であるNMax問題を定義し,N=5の場合について 計算機実験を行った.比較のため,カップル成立した男女の属性を好相性として そのまま使用する手法を用意した.その結果,提案システムが,比較手法に比べ て,半分の合コン実施回数で,最適解に約90%以上一致する解集団を求めること ができ,得られた解を基にした合コン割当てにより約2倍のカップル成立数を達 成できることを確認した.
In recent years, there is a series of studies in formalization of D.P. based on algebraic frameworks. Such frameworks can subsume many important computations by instantiating a concrete algebra. The most of the instances shown in the past research are suitable only to computation tasks in the prediction step, where the main concern is to find the best or next bests solution in the search space. On the other hand, the learning step, which is numerical optimization procedure of models, are also central computation in sequence labeling. However, only a few instances are useful in the learning step, and various important computations in the learning step do not adapt to any algebraic frameworks.
In this dissertation, I first introduce algebraic notations and review the past studies of D.P. related to sequence labeling. Next, I introduce some systematic ways to compose complex algebraic systems from simpler ones. I also show novel advanced instances of algebraic frameworks of D.P. These show promise in various numerical calculations in the learning step. Finally, in order to demonstrate the actual benefit of the algebraic instances proposed in this dissertation, I propose a novel sequence labeling model which utilizes one of proposed instances of the framework in its learning step. I also show the quantitative result of the model.
まず, 周期運動のひとつである自転車のペダリング動作について考える. 自転車のペダリングに関する力学モデルを導出し, それをもとにしてエネルギー効率が最適となる条件を求める. その結果, 考察している周期運動に対しては, 入力トルクの脈動を除去することが有効であるという指針が得られる. これは, 人間のペダリングトルクをある種の周期外乱と捉え, 繰返し制御を適用することでその脈動を除去する従来研究の正当性を裏付けるものである. また, 繰返し制御器をある種の有限インパルス応答(FIR)フィルタと捉え, いわゆる一般化Kalman-Yakubovich-Popov補題に基づいて設計する手法が従来提案されているが, 本論文では, 無限インパルス応答(IIR)型制御器を用いることで, 所望の周波数特性を満たしつつ, 従来よりも次数の低い制御器の設計法を提案する. さらに, 数値シミュレーションおよび実験結果を通じて, 提案法の有効性と最適条件の正当性を示す.
次に, 提案手法を船舶のエンジン回転数制御へ応用する. 規則波中を航行する船舶は, 波から受ける周期的な力とプロペラから発生する推力の二つの力が入力となって運動している. この状況は, 電動アシスト自転車の運動と類似のものである. そこで, 上記提案手法を船舶のエンジン回転数制御へ応用し, 数値シミュレーションによって燃費の改善結果を示す.
We enumerated basic requirements for design and implementation of client honeypot, corresponding to above adversarial techniques as follows: detection precision, inspection performance, information collection, safeguarding, camouflaging and seed URL selection. For precisely exploit detection, we proposed stepwise detections for anomalous behaviors of three exploitation phases in order to broaden coverage of detection and discovering various patterns of known/unknown exploitation. In our experiment, a conventional detection method can only one third of exploitations detected by our proposed detection method. For collecting precise information, a client honeypot coordinates network-based events and host-based events to identify complex relationship of web contents and URL-graph structure of malware distribution network. For camouflaged inspection, a client honeypot must be developed based on high interaction system (i.e., real OS and applications) and uses a network environment of IP address randomization. For achieving high-inspection performance and safeguarding, we proposed two approaches: 1) multi honeypot-agent, and 2) multi browser-process. In particular, the second approach is the novel sandbox mechanism for process multiplication on single honeypot OS. Our proposed sandbox enables process-level execution environment isolation. For selecting seed URL, we proposed structural neighborhood URL lookup that preferentially inspects extracted potentially malicious URLs for blacklist candidacy. This method is based on our assumption that unknown malicious URLs exist in the neighborhood of known malicious URLs created by the same adversary because of characteristics of malicious websites that are short-lived and partial mutation of URL to avoid blacklisting. Evaluation result shows effectiveness for blacklist generation to discover URLs in the neighborhood of a malicious URL by using a search engine.
Developed client honeypot, called Marionette, is compatible with all proposed methods and satisfies enumerated requirements. We confirmed feasibility and stability of it in the long-term observation in the real web space. Remarkable observation data indicates critical properties of adversary for next step of actual countermeasures. Finally, we address open problems and future directions of malware countermeasures.