Monthly Archives: 4月 2017

「ゼロから作るDeep Learning」第12回(4/25)

Posted on by 0 comment

参加者 沼田(読み手)、青木(記)
範囲 pp.123 – 135

5章 誤差逆伝播法

  • 5.1 計算グラフ
    • 5.1.1 計算グラフで解く
    • 5.1.2 局所的な計算
    • 51.3 なぜ計算グラフで解くのか?
    • 5.2 連鎖律
      • 5.2.1 計算グラフの逆伝播
      • 5.2.2 連鎖律とは
      • 5.2.3 連鎖律と計算グラフ
    • 5.3 逆伝播
      • 5.3.1 加算ノードの逆伝播
      • 5.3.2 乗算ノードの逆伝播

「ゼロから作るDeep Learning」第11回(4/21)

Posted on by 0 comment

参加者 今井(読み手)、沼田、青木(記)
範囲 pp.112 – 122

4章 ニューラルネットワークの学習

  • 4.5 学習アルゴリズムの実装
    • 4.5.1 2層ニューラルネットワークのクラス
    • 4.5.2 ミニバッチ学習の実装
    • 4.5.3 テストデータで評価
  • 4.6 まとめ

「ゼロから作るDeep Learning」第10回(4/18)

Posted on by 0 comment

参加者 青木(読み手)、今井、沼田(記)
範囲 pp.106 – 112

4章 ニューラルネットワークの学習

  • 4.4 勾配
    • 4.4.1 勾配法
    • 4.4.2 ニューラルネットワークに対する勾配

「ゼロから作るDeep Learning」第9回(4/14)

Posted on by 0 comment

参加者 沼田(読み手)、青木、今井(記)
範囲 pp.97-106

4章 ニューラルネットワークの学習

  • 4.3 数値微分
    • 4.3.1 微分
      • p.98 中ほど
        10e-50は、0が50個ではなく49個だよね。(整数部含めて)
        中ほど以降の実行例や本文では1e-50になっているし、普通は整数部を1桁または0桁で書くことが多いと思うので、単に1×10-50 の10と混同して10e-50と書いてしまったのでしょう。
    • 4.3.2 数値微分の例
    • 4.3.3 偏微分
  • 4.4 勾配

「ゼロから作るDeep Learning」第8回(4/11)

Posted on by 0 comment

参加者 今井(読み手)、沼田、青木(記)
範囲 pp.87 – 97

4章 ニューラルネットワークの学習

  • 4.2 損失関数
    • 4.2.1 2乗和誤差
    • 4.2.2 交差エントロピー誤差
    • 4.2.3 ミニバッチ学習
    • 4.2.4 [バッチ対応版]交差エントロピー誤差の実装
    • 4.2.5 なぜ損失関数を設定するのか?

「ゼロから作るDeep Learning」第7回(4/7)

Posted on by 0 comment

参加者 青木(読み手)、今井、沼田(記)
範囲 pp.75 – 87

3章 ニューラルネットワーク

  • 3.6
    • 3.6.2 ニューラルネットワークの推論処理
    • 3.6.3 バッチ処理
      • p.80 rangeの例のあとにあるx[i:i+batch_n]の説明
        取り出されるのはi+batch_n-1番目では?
  • 3.7 まとめ

4章 ニューラルネットワークの学習

  • 4.1 データから学習する
    • 4.1.1 データ駆動
    • 4.1.2 訓練データとテストデータ

「ゼロから作るDeep Learning」第6回(4/4)

Posted on by 0 comment

参加者 沼田(読み手)、青木、今井(記)
範囲 pp.64-75

3章 ニューラルネットワーク

  • 3.4 3層ニューラルネットワークの実装
    • 3.4.3 実装のまとめ
  • 3.5 出力層の設計
    • 3.5.1 恒等関数とソフトマックス関数
    • 3.5.2 ソフトマックス関数の実装上の注意
    • 3.5.3 ソフトマックス関数の特徴
    • 3.5.4 出力層のニューロンの数
  • 3.6 手書き数字認識
    • 3.6.1 MNISTデータセット