はじめに
PyTorchにもGated Linear Unit (GLU)は用意されているが,アフィン変換などの部分はGLUモジュールの外で書かないといけない."Linear" は一体どこへやら.
なのでラッパーを書いたということ.
ソースコード
ここに置いた.畳み込みはConv1dのみ.もはや"Linear"ではない.おまけで"GatedConv1d"クラスも作っておいた.
PyTorchにもGated Linear Unit (GLU)は用意されているが,アフィン変換などの部分はGLUモジュールの外で書かないといけない."Linear" は一体どこへやら.
なのでラッパーを書いたということ.
ここに置いた.畳み込みはConv1dのみ.もはや"Linear"ではない.おまけで"GatedConv1d"クラスも作っておいた.