エッジコンピューティングにおける共有ニューラルネットワークを用いた高効率な深層学習の推論実行モデル

福岡 久和(1651091)


飛躍的な進歩を続けるニューラルネットワークは、実アプリケーションとして組み込ま れるようになった。推論処理に必要な計算量は大きいため、データ取得場所付近ではな く、データセンタに設置された潤沢な計算基盤をもつサーバで処理される。しかし、サー バやネットワークスイッチの膨大な消費電力やデータの一極集中によるトラフィック輻 輳が問題となる。

そこで、DNNを分割し、前半部分をエッジデバイスを用いて処理を行い、出力される中間 データである特徴量を圧縮する分散推論モデルと、共有ニューラルネットワークを用い たマルチ推論モデルの2つ実行モデルを提案した。分散推論モデルでは、特徴量圧縮によ るクラス識別問題の認識率低下を調べ、推論にかかる時間の見積もりを行った。

結果、AlexNetをpool5を境界に分割した場合、非圧縮の認識率75.6%と比較して3.4%の低 下に抑え、従来の推論処理と比較して実行時間を14.3%の増加により、トラフィック輻輳 やサーバへの負荷集中を解消できた。また、マルチ推論モデルでは、共有ニューラルネッ トワークを用いることにより、1000、100クラスの識別問題において、100クラスの認識 率は平均12.3%の低下に抑えたまま、計算量を50.3%だけ削減できた。