<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>swx-tomoya-ikeda</author_name>
  <author_url>https://blog.hatena.ne.jp/swx-tomoya-ikeda/</author_url>
  <blog_title>サーバーワークスエンジニアブログ</blog_title>
  <blog_url>https://blog.serverworks.co.jp/</blog_url>
  <categories>
    <anon>生成AI</anon>
  </categories>
  <description>はじめに 前回の記事では、LangfuseをAWS上にデプロイしてLLMアプリケーションのトレースを可視化する方法をご紹介しました。トレースによって「何が起きているか」は見えるようになりましたが、これだけでは「その回答は良いのか悪いのか」を判断することはできません。 そこで今回は、Langfuseの「評価」機能を使って、LLMの回答品質を自動で数値化し、ダッシュボードでリアルタイムに可視化する方法をご紹介します。 前提条件 Langfuse環境 ( 前回の記事でデプロイ済み ) 観測対象のRAGシステム Python 3.9以上（評価スクリプト実行用） OpenAI APIキー（自動評価で使用…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fblog.serverworks.co.jp%2F2025%2F12%2F09%2F173103&quot; title=&quot;LLMの品質を可視化！Langfuseで実現する自動評価システムの構築 - サーバーワークスエンジニアブログ&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn.user.blog.st-hatena.com/default_entry_og_image/155844699/1589415473304665</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2025-12-09 17:31:03</published>
  <title>LLMの品質を可視化！Langfuseで実現する自動評価システムの構築</title>
  <type>rich</type>
  <url>https://blog.serverworks.co.jp/2025/12/09/173103</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
