Nature ハイライト

工学:アナログメモリーを用いたニューラルネットワーク訓練の高速化

Nature 558, 7708

ディープニューラルネットワークは神経形態学的コンピューティングアーキテクチャーの一種で、画像認識や音声認識のような機械学習問題に用いられている。こういった課題の実行では、情報は、各要素が全て異なった重みによって結合しているネットワークのレイヤーを通過していく。こうしたネットワークを有用なものにするためには、最初に非常に大きなデータセットによってネットワークを訓練して、いかなる重みが必要かを確立しなければならない。これは、時間がかかる過程であり、エネルギーを大量に消費することが多い。このような演算を高速化するためにいくつかの手法が取られてきたが、ソフトウエアは通常、従来のデジタルハードウエアで実行されるため、ほとんどがデジタルの重みに頼っている。G Burrたちは今回、アナログメモリーベースの手法を用いて同程度の精度でディープニューラルネットワークを訓練することができ、速度もエネルギー効率もより高くなる可能性があることを示している。

目次へ戻る

プライバシーマーク制度