そこで、DNNを分割し、前半部分をエッジデバイスを用いて処理を行い、出力される中間 データである特徴量を圧縮する分散推論モデルと、共有ニューラルネットワークを用い たマルチ推論モデルの2つ実行モデルを提案した。分散推論モデルでは、特徴量圧縮によ るクラス識別問題の認識率低下を調べ、推論にかかる時間の見積もりを行った。
結果、AlexNetをpool5を境界に分割した場合、非圧縮の認識率75.6%と比較して3.4%の低 下に抑え、従来の推論処理と比較して実行時間を14.3%の増加により、トラフィック輻輳 やサーバへの負荷集中を解消できた。また、マルチ推論モデルでは、共有ニューラルネッ トワークを用いることにより、1000、100クラスの識別問題において、100クラスの認識 率は平均12.3%の低下に抑えたまま、計算量を50.3%だけ削減できた。