<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>unlit</author_name>
  <author_url>https://blog.hatena.ne.jp/unlit/</author_url>
  <blog_title>Ridge-institute R&amp;D Blog</blog_title>
  <blog_url>https://iblog.ridge-i.com/</blog_url>
  <categories>
  </categories>
  <description>こんにちは，Ridge-iの関口です．本記事ではNeural Radiance Fields (NeRF) [1]の技術で場を学習したネットワークから3D情報を取得する方法についてご紹介したいと思います．といっても著者らのオリジナル研究のプロジェクトページ上にあるスクリプトの解説に近いのですが，ウェブ上にあまり情報がなかったので書き記しておきたいと思います． NeRFは任意視点の画像をレンダリングできますが，あくまで2Dとしての見え方を推定しているものです（正確に言えば，NNに対して座標とその座標を覗き込む角度を入力として，そのときの点の色と密度を推定する作業を繰り返して表面座標の情報を得る，…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fiblog.ridge-i.com%2Fentry%2F2022%2F10%2F06%2F135527&quot; title=&quot;NeRFのレンダリング表現を3D情報として得る方法 - Ridge-institute R&amp;amp;D Blog&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url>https://cdn-ak.f.st-hatena.com/images/fotolife/u/unlit/20221006/20221006100839.png</image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2022-10-06 13:55:27</published>
  <title>NeRFのレンダリング表現を3D情報として得る方法</title>
  <type>rich</type>
  <url>https://iblog.ridge-i.com/entry/2022/10/06/135527</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
