PySpark: StructField (…,…, False) gibt immer `nullable = true` anstelle von` nullable = false` zurück
Ich bin neu bei PySpark und stehe vor einem seltsamen Problem. Ich versuche, eine Spalte beim Laden eines CSV-Datasets auf nicht nullwertfähig zu setzen. Ich kann meinen Fall mit einem sehr kleinen Datensatz reproduzieren test.csv
):
col1,col2,col3
11,12,13
21,22,23
31,32,33
41,42,43
51,,53
Zeile 5, Spalte 2 enthält einen Nullwert, und ich möchte diese Zeile nicht in meinen DF aufnehmen. Ich habe alle Felder als nicht nullbar festgelegt nullable=false
) aber ich bekomme ein Schema mit allen drei Spalten mitnullable=true
. Dies passiert auch, wenn ich alle drei Spalten als nicht nullbar einstelle! Ich verwende die neueste verfügbare Version von Spark, 2.0.1.
Hier ist der Code:
from pyspark.sql import SparkSession
from pyspark.sql.functions import *
from pyspark.sql.types import *
spark = SparkSession \
.builder \
.appName("Python Spark SQL basic example") \
.config("spark.some.config.option", "some-value") \
.getOrCreate()
struct = StructType([ StructField("col1", StringType(), False), \
StructField("col2", StringType(), False), \
StructField("col3", StringType(), False) \
])
df = spark.read.load("test.csv", schema=struct, format="csv", header="true")
df.printSchema()
kehrt zurück
root
|-- col1: string (nullable = true)
|-- col2: string (nullable = true)
|-- col3: string (nullable = true)
unddf.show()
kehrt zurück
+----+----+----+
|col1|col2|col3|
+----+----+----+
| 11| 12| 13|
| 21| 22| 23|
| 31| 32| 33|
| 41| 42| 43|
| 51|null| 53|
+----+----+----+
während ich das erwarte:
root
|-- col1: string (nullable = false)
|-- col2: string (nullable = false)
|-- col3: string (nullable = false)
+----+----+----+
|col1|col2|col3|
+----+----+----+
| 11| 12| 13|
| 21| 22| 23|
| 31| 32| 33|
| 41| 42| 43|
+----+----+----+