<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>liaoyuan</author_name>
  <author_url>https://blog.hatena.ne.jp/liaoyuan/</author_url>
  <blog_title>Going Faraway</blog_title>
  <blog_url>https://liaoyuan.hatenablog.jp/</blog_url>
  <categories>
    <anon>Deep Learning with Python</anon>
  </categories>
  <description>以前に取り上げた3つのサンプルプログラムでは、学習を続けていくと、訓練データの予測精度は向上するものの検証スコアは悪化していった。このように、訓練用データはうまく予測できるものの、逆に一度も入力されたことのないデータに対する予測性能が下がってしまう現象を過学習 (overfitting) と呼ぶ。過学習への対処は機械学習の中心的な課題である。一般的に、過学習に対して最も効果がある対処法は訓練データを増やすことである。それができない場合は、モデルが保存する情報を減らすことである。この4.4節では、過学習に対応する方法が記載されている。 ネットワークのサイズ減少 過学習に対する最もシンプルな対処法…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fliaoyuan.hatenablog.jp%2Fentry%2F2018%2F02%2F13%2F231430&quot; title=&quot;【Deep Learning with Python】過学習への対応 - Going Faraway&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/l/liaoyuan/20180213/20180213225531.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2018-02-13 23:14:30</published>
  <title>【Deep Learning with Python】過学習への対応</title>
  <type>rich</type>
  <url>https://liaoyuan.hatenablog.jp/entry/2018/02/13/231430</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
