アンサンブル学習を用いた教師データ分割によるニューラルネットワーク処理の高速化
小池 和正 (1351041)
近年,Deep Learning を代表とするニューラルネットワークを用いた機械学習が注目されている.
一方で,多層化やパラメータ数の増加に伴い学習に要する時間が増大していることが問題となっている.
本論文では,複数モデルを統合し学習を行うアンサンブル学習の持つ高い並列性と精度に着目し,ニューラルネットワークの学習の高速化を行う手法を提案する.
提案手法では,精度は低いが高速なモデルと,精度は高いが低速なモデルによってアンサンブル学習を行う.
それぞれの速度の不均衡を,教師データの分割とそれぞれの割合の変更によって解消する.
以上により,アンサンブル学習前の精度を維持した状態で最短の学習時間となるようにバランスを取り,学習全体を高速化する.
本提案手法によって,単一のモデルに比べてMNISTデータセットでは最大60%,CIFAR-10データセットでは最大32%の学習時間削減を達成し,高速化を実現できた.