<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<oembed>
  <author_name>dk521123</author_name>
  <author_url>https://blog.hatena.ne.jp/dk521123/</author_url>
  <blog_title>プログラム の超個人的なメモ</blog_title>
  <blog_url>https://dk521123.hatenablog.com/</blog_url>
  <categories>
    <anon>Spark / PySpark</anon>
  </categories>
  <description>■ はじめに https://dk521123.hatenablog.com/entry/2021/06/01/142457 の続き。 PySpark で 「columnNameOfCorruptRecord」とか「_corrupt_record」など でてきたので、調べてみた。 目次 【１】Corrupt Record １）何ができる？ ２）使用用途 【２】使用方法 １）手順 【３】サンプル 例１：CSVファイル 【４】使用上の注意 １）使用できるSparkバージョン ２）使用可能なファイル種類およびモード ３）cache() する必要がある ４）データ型（特に数字）の指定に注意 【１】Co…</description>
  <height>190</height>
  <html>&lt;iframe src=&quot;https://hatenablog-parts.com/embed?url=https%3A%2F%2Fdk521123.hatenablog.com%2Fentry%2F2022%2F02%2F14%2F153845&quot; title=&quot;【分散処理】PySpark ～ _corrupt_record ～ - プログラム の超個人的なメモ&quot; class=&quot;embed-card embed-blogcard&quot; scrolling=&quot;no&quot; frameborder=&quot;0&quot; style=&quot;display: block; width: 100%; height: 190px; max-width: 500px; margin: 10px 0px;&quot;&gt;&lt;/iframe&gt;</html>
  <image_url></image_url>
  <provider_name>Hatena Blog</provider_name>
  <provider_url>https://hatena.blog</provider_url>
  <published>2022-02-14 15:38:45</published>
  <title>【分散処理】PySpark ～ _corrupt_record ～</title>
  <type>rich</type>
  <url>https://dk521123.hatenablog.com/entry/2022/02/14/153845</url>
  <version>1.0</version>
  <width>100%</width>
</oembed>
