<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>aotamasaki</author_name>
  <author_url>https://blog.hatena.ne.jp/aotamasaki/</author_url>
  <blog_title>学習する天然ニューラルネット</blog_title>
  <blog_url>https://aotamasaki.hatenablog.com/</blog_url>
  <categories>
    <anon>機械学習</anon>
    <anon>人気記事</anon>
  </categories>
  <description>概要 現実の判別問題において教師が完璧であることは珍しい。ラベリング作業において、知識不足や勘違いなどで引き起こされるヒューマンエラーはデータセットを汚染する。 このような間違った教師のことを、noisy label (corrupted label や polluted labelとも)という。誤った教師を用いると学習はうまく行かず判別性能は下がってしまう。近年ではこれに対処しようという研究が増えている。 ICML2020に Confident Learning: Estimating Uncertainty in Dataset Labels という論文が投稿された。しかも、よく整備された…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Faotamasaki.hatenablog.com%2Fentry%2Freuter_with_confident_learning&quot; title=&quot;Confident Learningは誤った教師から学習するか？ ~ tf-idfのデータセットでノイズ生成から評価まで ~ - 学習する天然ニューラルネット&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/a/aotamasaki/20200404/20200404120350.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2020-04-04 12:15:35</published>
  <title>Confident Learningは誤った教師から学習するか？ ~ tf-idfのデータセットでノイズ生成から評価まで ~</title>
  <type>rich</type>
  <url>https://aotamasaki.hatenablog.com/entry/reuter_with_confident_learning</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
