<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>y-kamiya</author_name>
  <author_url>https://blog.hatena.ne.jp/y-kamiya/</author_url>
  <blog_title>MEMOcho-</blog_title>
  <blog_url>https://jsapachehtml.hatenablog.com/</blog_url>
  <categories>
    <anon>machine learning</anon>
    <anon>RL</anon>
    <anon>pytorch</anon>
  </categories>
  <description>元の論文はこちら [1706.10295] Noisy Networks for Exploration 常にその時点で価値の高い行動を取り続けた場合、最初に価値が高くなった行動が取られ続け、別の行動を取る可能性がなくなってしまう。それを防ぐため元のDQNではε-greedy法と呼ばれる手法を用いている。これは一定確率で価値に依らずランダムで行動を選択することにより、選ばれる行動の可能性を広げようとするものである。 noisy networkはこの部分を改良するもので、ネットワークそのものに学習可能なパラメータと共に外乱を与え、それも含めて学習させていくことでより長期的で広範囲に探索を進めよう…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fjsapachehtml.hatenablog.com%2Fentry%2F2018%2F10%2F13%2F173303&quot; title=&quot;pytorchでnoisy networkを実装 - MEMOcho-&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/y/y-kamiya/20181013/20181013105913.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2018-10-13 17:33:03</published>
  <title>pytorchでnoisy networkを実装</title>
  <type>rich</type>
  <url>https://jsapachehtml.hatenablog.com/entry/2018/10/13/173303</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
