<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>redhornet96</author_name>
  <author_url>https://blog.hatena.ne.jp/redhornet96/</author_url>
  <blog_title>もふもふ技術部</blog_title>
  <blog_url>https://www.mof-mof.co.jp/tech-blog/</blog_url>
  <categories>
    <anon>machine learning</anon>
    <anon>Coursera</anon>
    <anon>Octave</anon>
    <anon>Gradient Descent</anon>
  </categories>
  <description>前回のOctaveで散布図をプロットしてみるに続いて、今後はOctaveで最急降下法を実装して、θの値を探索してみます。 結論から言うと失敗した。どこかfeature scalingで間違っているっぽいんだけど、どう間違っているのかがわからず。改めてリベンジしたい。ひとまずは記録を残しておく。 前に実装した目的関数(costFunctionJ.m)。 function J = costFunctionJ(X, y, theta) m = size(X,1); predictions = X*theta; sqrErrors = (predictions-y).^2; J = 1 / (2*m)…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fwww.mof-mof.co.jp%2Ftech-blog%2Fmachine-learning-gradient-descent&quot; title=&quot;最急降下法を実装して線形回帰のθの値を探索してみたけどうまくいかなかった - もふもふ技術部&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://images.ctfassets.net/683ogktz4b18/2UDT6TcFP49lB8GUFVRqsg/949464233f9a7e99349a071aed1424f7/graph.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2016-01-09 00:00:00</published>
  <title>最急降下法を実装して線形回帰のθの値を探索してみたけどうまくいかなかった</title>
  <type>rich</type>
  <url>https://www.mof-mof.co.jp/tech-blog/machine-learning-gradient-descent</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
