<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>kunihik0827</author_name>
  <author_url>https://blog.hatena.ne.jp/kunihik0827/</author_url>
  <blog_title>AKARI Tech Blog</blog_title>
  <blog_url>https://tech.akariinc.co.jp/</blog_url>
  <categories>
    <anon>論文解説</anon>
    <anon>AI・機械学習</anon>
    <anon>LLM</anon>
    <anon>Python</anon>
    <anon>AI Agent</anon>
  </categories>
  <description>こんにちは！ 今週はDXソリューション事業本部 Devグループ マネージャーの小倉が担当します！ LLMに長文を与えると、精度が低下するケースをよく見かけますよね。 今回は、そうした長文に対しても推論精度を維持しやすい手法である「RLMs（Recursive Language Models）」について紹介します！ 対象の論文 Recursive Language Models 1. サマリ 2. 背景：Context Rot（コンテキスト劣化）とタスク複雑性 3. 技術詳解：Recursive Language Models (RLM) の構造 3.1 REPL（Read-Eval-Print…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Ftech.akariinc.co.jp%2Fentry%2F2026%2F04%2F01%2F185441&quot; title=&quot;【論文解説】ロングコンテキストでも高い精度で処理が可能なRecursive Language Models (RLMs)について紹介 - AKARI Tech Blog&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/a/akariinc/20260401/20260401184742.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2026-04-01 18:54:41</published>
  <title>【論文解説】ロングコンテキストでも高い精度で処理が可能なRecursive Language Models (RLMs)について紹介</title>
  <type>rich</type>
  <url>https://tech.akariinc.co.jp/entry/2026/04/01/185441</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
