<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>acro-sasaki</author_name>
  <author_url>https://blog.hatena.ne.jp/acro-sasaki/</author_url>
  <blog_title>Taste of Tech Topics</blog_title>
  <blog_url>https://acro-engineer.hatenablog.com/</blog_url>
  <categories>
    <anon>NLP</anon>
    <anon>情報検索</anon>
  </categories>
  <description>こんにちは。社内データサイエンスチームYAMALEXの@Ssk1029Takashiです。 最近はRTX4090のマシンを買って電気代が上がってきています。昨今NLP界隈では事前学習モデルが出てからは、検索というのもキーワードでの検索だけではなく、文章を入力にして似たような文章を探す類似文書検索も使われるようになりました。 そんな中で、今回はFAQを対象にした類似文書検索をSentence BERTを使って試してみます。 FAQでよくある困りごと 今回やること Sentence BERTとは 検証 FAQデータセットから文章ベクトルを学習する 回答文から文章ベクトルを生成する 質問文から近しい…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Facro-engineer.hatenablog.com%2Fentry%2F2023%2F01%2F16%2F120000&quot; title=&quot;Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/a/acro-sasaki/20230108/20230108015305.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2023-01-16 12:00:00</published>
  <title>Sentence BERTをFine TuningしてFAQを類似文書検索してみる</title>
  <type>rich</type>
  <url>https://acro-engineer.hatenablog.com/entry/2023/01/16/120000</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
