<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>swx-hiroki-kitade</author_name>
  <author_url>https://blog.hatena.ne.jp/swx-hiroki-kitade/</author_url>
  <blog_title>サーバーワークスエンジニアブログ</blog_title>
  <blog_url>https://blog.serverworks.co.jp/</blog_url>
  <categories>
    <anon>生成AI</anon>
    <anon>LLM</anon>
  </categories>
  <description>はじめに ローカルLLMとは 今回の構成 LM Studioのセットアップ LM Studioとは モデルのインストールと動作確認 MCPの設定 Open WebUIでナレッジベース（RAG）を構築 Open WebUIとは Dockerでの起動 LM Studioとの接続 1. LM Studio側でAPIサーバーを起動 2. Open WebUIの管理画面で設定 ナレッジベースの作成 使ってみた所感 メリット デメリット ユースケースの考察 まとめ はじめに こんにちは、アプリケーションサービス本部ディベロップメントサービス3課の北出です。 新しくMacBook Proを購入したのをきっか…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fblog.serverworks.co.jp%2F2026%2F03%2F16%2F120111&quot; title=&quot;ローカルLLMを触ってみる - サーバーワークスエンジニアブログ&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn.user.blog.st-hatena.com/default_entry_og_image/155844699/1589415473304665</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2026-03-16 12:01:11</published>
  <title>ローカルLLMを触ってみる</title>
  <type>rich</type>
  <url>https://blog.serverworks.co.jp/2026/03/16/120111</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
