<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>yuji_ueda</author_name>
  <author_url>https://blog.hatena.ne.jp/yuji_ueda/</author_url>
  <blog_title>はい！今やってます！</blog_title>
  <blog_url>https://yuji-ueda.hatenadiary.jp/</blog_url>
  <categories>
    <anon>Python</anon>
    <anon>活性化関数</anon>
    <anon>ReLU</anon>
    <anon>Deep Learning</anon>
  </categories>
  <description>活性化関数ReLU関数について 活性化関数、伝達関数と呼ばれる関数、中でも現代のニューラルネットワークでは最も一般的に利用されるReLUについて、 わかりやすく説明したい。 パーセプトロンとニューラルネットワークの違い 一般的に言われる「単純パーセプトロン」は、単層のネットワークで、活性化関数にステップ関数(閾値を境に出力が切り替わる関数)を利用したモデルです。 一方で、多層でシグモイド関数などの滑らかな活性化関数を使用するネットワークを「多層パーセプトロン」と呼び、これがニューラルネットワークとなります。 パーセプトロンについて パーセプトロンの誕生については1957年まで遡ります。視覚と脳…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fyuji-ueda.hatenadiary.jp%2Fentry%2F2017%2F07%2F16%2F151536&quot; title=&quot;活性化関数、ReLUについて - はい！今やってます！&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>http://chart.apis.google.com/chart?cht=tx&amp;chl=%0A%5Cdisplaystyle%20h%28X%29%20%3D%20%5Cfrac%7B1%7D%7B1%2Bexp%28-x%29%7D%0A</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2017-07-16 15:15:36</published>
  <title>活性化関数、ReLUについて</title>
  <type>rich</type>
  <url>https://yuji-ueda.hatenadiary.jp/entry/2017/07/16/151536</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
