ちょっと前の論文だけど:
papers.nips.cc
TJO氏の論文解読メモはこちら
tjo.hatenablog.com
重要な結論としては
dropout ratio = 0.5の時にL2正則化の効果が最大になる、ということが示されたというわけです。なのでDeep Learningを実装したりライブラリベースで導入した場合には、特に理由がない限りはdropout ratioは0.5で固定してしまって良いみたいです。
でしょうか。
ちょっと前の論文だけど:
papers.nips.cc
TJO氏の論文解読メモはこちら
tjo.hatenablog.com
重要な結論としては
dropout ratio = 0.5の時にL2正則化の効果が最大になる、ということが示されたというわけです。なのでDeep Learningを実装したりライブラリベースで導入した場合には、特に理由がない限りはdropout ratioは0.5で固定してしまって良いみたいです。
でしょうか。