以下のサイトで、NIPSという国際会議における「深層学習」のトレンドが10個紹介されている。
Brad Neuberg: Ten Deep Learning Trends at NIPS 2015
あとから英語を読み返すのはダルいので、日本語で箇条書きにしておこう;
- ニューラルネットワークの構造はより複雑で手が込んでいるね
- 繰り返しパターンを捉えるための最新のシステムは、ほぼLSTMを使っているみたい
- 注意モデル(attention model)が現れてきたぞ
- ニューラルチューリングマシンは興味深いけど、実タスクでいい感じの結果は出てないね
- コンピュータビジョンと自然言語処理はスパっと分かれてない。それぞれの深層学習の手法はお互いに混ざってる感ある
- (自動的な)シンボル的微分はかなり重要
- ニューラルネットワークのモデル圧縮に関する研究結果にビビった
- 深層学習と強化学習の連携はまだ続くっぽい
- バッチ正規化使ってないなら人生損してるで
- ニューラルネットワークの研究と生産性(のスピード)は密接に関連してんじゃない?
そのうち、翻訳も載せるかもね(やらないフラグ)。