<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>trafalbad</author_name>
  <author_url>https://blog.hatena.ne.jp/trafalbad/</author_url>
  <blog_title>アプリとサービスのすすめ</blog_title>
  <blog_url>https://trafalbad.hatenadiary.jp/</blog_url>
  <categories>
    <anon>機械学習</anon>
  </categories>
  <description>googleの自然言語処理の高性能モデルBERTを使ってfine tuning(転移学習)をやった。BERT用のデータセットではなく、一般に公開されてるIMDBデータセット（映画レビュー）を使用。 2値分類用にBERTモデルを再構築して、ネガポジ判定したので、その過程をまてめてく。目次 ・今回のタスク ・データセットの作成と中身 ・学習済みBERTのload &amp; 2値分類用に再構築 ・正解率 ・まとめ &amp; BERTの全体像 今回のタスクタスクは2値分類のネガポジ判定。データセットはIMDBデータセットで中身は「映画のレビューとラベル(negative=0, positive=1)」。BERTに…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Ftrafalbad.hatenadiary.jp%2Fentry%2F2019%2F07%2F20%2F085725&quot; title=&quot;学習済み英語版keras BERTのfine tuning(転移学習)でネガポジ判定の２値分類をしてみた【機械学習・自然言語処理】 - アプリとサービスのすすめ&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/t/trafalbad/20190720/20190720080557.jpg</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2019-07-20 08:57:25</published>
  <title>学習済み英語版keras BERTのfine tuning(転移学習)でネガポジ判定の２値分類をしてみた【機械学習・自然言語処理】</title>
  <type>rich</type>
  <url>https://trafalbad.hatenadiary.jp/entry/2019/07/20/085725</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
