<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>kaeken</author_name>
  <author_url>https://blog.hatena.ne.jp/kaeken/</author_url>
  <blog_title>kaeken(嘉永島健司)ブログ</blog_title>
  <blog_url>https://kaeken.hatenablog.com/</blog_url>
  <categories>
    <anon>Deep Learning</anon>
  </categories>
  <description>4章続き。 学習アルゴリズムの実装 改めて学習とは：適応可能な重みとバイアスを訓練データに適応するように調整すること 学習の４ステップ ステップ１：ミニバッチをランダムに選択 ステップ２：ミニバッチの損失関数を減らす勾配を算出 ステップ３：重みパラメータを勾配方向に微小量だけ更新 ステップ４：ステップ１−３を反復 ミニバッチをランダム選択することから、 確率的勾配下降法(SGD, stochastic gradient descent)と呼ぶ。 ２層ニューラルネットワークのクラスプログラムを参照。今までの総まとめ。 # cat two_layer_net.py # coding: utf-8 …</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fkaeken.hatenablog.com%2Fentry%2F2016%2F11%2F08%2F192325&quot; title=&quot;4章ニューラルネットワークの学習　学習アルゴリズムの実装『ゼロから作るDeep Learning』 - kaeken(嘉永島健司)ブログ&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/k/kaeken/20161108/20161108192243.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2016-11-08 19:23:25</published>
  <title>4章ニューラルネットワークの学習　学習アルゴリズムの実装『ゼロから作るDeep Learning』</title>
  <type>rich</type>
  <url>https://kaeken.hatenablog.com/entry/2016/11/08/192325</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
