pyspark: NameError: Name 'spark' ist nicht definiert
Ich kopiere das Beispiel pyspark.ml von der offiziellen Dokument-Website:http: //spark.apache.org/docs/latest/api/python/pyspark.ml.html#pyspark.ml.Transforme
data = [(Vectors.dense([0.0, 0.0]),), (Vectors.dense([1.0, 1.0]),),(Vectors.dense([9.0, 8.0]),), (Vectors.dense([8.0, 9.0]),)]
df = spark.createDataFrame(data, ["features"])
kmeans = KMeans(k=2, seed=1)
model = kmeans.fit(df)
Das obige Beispiel konnte jedoch nicht ausgeführt werden und hat folgende Fehler verursacht:
---------------------------------------------------------------------------
NameError Traceback (most recent call last)
<ipython-input-28-aaffcd1239c9> in <module>()
1 from pyspark import *
2 data = [(Vectors.dense([0.0, 0.0]),), (Vectors.dense([1.0, 1.0]),),(Vectors.dense([9.0, 8.0]),), (Vectors.dense([8.0, 9.0]),)]
----> 3 df = spark.createDataFrame(data, ["features"])
4 kmeans = KMeans(k=2, seed=1)
5 model = kmeans.fit(df)
NameError: name 'spark' is not defined
Welche zusätzliche Konfiguration / Variable muss festgelegt werden, damit das Beispiel ausgeführt wird?