「ゼロから作るDeep Learning ❷」第28回(11/6)

Posted on by 0 comment

参加者 今井(読み手)、沼田(記)
pp.360 – 374

8章 Attention

  • 8.4 Attentionに関する残りのテーマ
    • 8.4.1 双方向RNN
    • 8.4.2 Attentionレイヤの使用方法
    • 8.4.3 seq2seqの深層化とskipコネクション
      • p.365 図8-33の下の段落の4行目
        DecoderのLSTMの隠れ状態←EncoderのLSTMの隠れ状態では?
  • 8.5 Attentionの応用
    • 8.5.1 Google Neural Machine Translation(GNMT)
    • 8.5.2 Transformer

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

CAPTCHA