<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>flattsecurity</author_name>
  <author_url>https://blog.hatena.ne.jp/flattsecurity/</author_url>
  <blog_title>GMO Flatt Security Blog</blog_title>
  <blog_url>https://blog.flatt.tech/</blog_url>
  <categories>
    <anon>技術</anon>
    <anon>セキュリティ診断</anon>
    <anon>AI</anon>
    <anon>言語/フレームワーク</anon>
  </categories>
  <description>はじめに こんにちは。GMO Flatt Security株式会社セキュリティエンジニアの森(@ei01241)です。 近年、大規模言語モデル（LLM）の進化により、チャットボット、データ分析・要約、自律型エージェントなど、多岐にわたるAIアプリケーション開発が進んでいます。LangChainやLlamaIndexのようなLLMフレームワークは、LLM連携や外部データ接続などを抽象化し開発効率を向上させる一方、その利便性の背後には新たなセキュリティリスクも存在します。 本稿では、LLMフレームワークを利用・開発する際に発生しやすい脆弱性を具体的なCVEを交えて解説し、それぞれ脆弱性から教訓を学…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fblog.flatt.tech%2Fentry%2Fllm_framework_security&quot; title=&quot;LLMフレームワークのセキュリティリスク - LangChain, Haystack, LlamaIndex等の脆弱性事例に学ぶ - GMO Flatt Security Blog&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/f/flattsecurity/20250512/20250512171418.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2025-05-12 18:17:14</published>
  <title>LLMフレームワークのセキュリティリスク - LangChain, Haystack, LlamaIndex等の脆弱性事例に学ぶ</title>
  <type>rich</type>
  <url>https://blog.flatt.tech/entry/llm_framework_security</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
