工学:アナログメモリーを用いた、同等の精度の高速化ニューラルネットワーク訓練
Nature 558, 7708 doi: 10.1038/s41586-018-0180-5
ニューラルネットワークの訓練は時間がかかりエネルギーを大量に消費する場合があるが、それは従来のデジタルメモリーチップとプロセッサーチップとの間のネットワークに対して重みデータを伝達する必要があるためである。アナログ不揮発性メモリーは、アナログ領域の重みデータの場所で乗累算演算を並列化して実行することにより、誤差逆伝播法として知られるニューラルネットワーク訓練アルゴリズムを加速させることができる。しかし、不揮発性メモリーハードウエアを用いたこういったin situ訓練の分類精度は概して、不十分なダイナミックレンジと過度の重み更新の非対称性により、ソフトウエアベースの訓練の精度よりも低くなっている。今回我々は、混合ハードウエア・ソフトウエアニューラルネットワークの実装を実証する。このネットワークは、最大20万4900のシナプスを含み、相変化メモリー内の長期ストレージと、揮発性のコンデンサーの近似線形アップデート、そして固有のデバイスごとの変動を無効にする「極性反転」による重みデータ転送を組み合わせている。我々は、さまざまな一般的に使われる機械学習テストデータセット(MNIST、MNIST-backrand、CIFAR-10および CIFAR-100)において、ソフトウエアベースで訓練させた場合と同等の(これまでに見たことのないデータでの)汎化精度を達成した。我々の実装で計算した、1 Wで1秒当たり28兆650億演算という計算のエネルギー効率、1秒間に1 mm2当たり3兆6000億演算という面積当たりのスループットは今日のグラフィック処理単位での値を2桁上回るものである。本研究は、特に全結合ニューラルネットワークレイヤーで高速性とエネルギー効率の両方を兼ね備えた、ハードウエアアクセラレーターへの1つの道を提供するものである。

