call of distinct und map together werfen NPE in die spark library
Ich bin mir nicht sicher, ob dies ein Fehler ist, also wenn Sie so etwas tun
// d:spark.RDD[String]
d.distinct().map(x => d.filter(_.equals(x)))
Sie erhalten eine Java NPE. Wenn Sie jedoch acollect
gleich nachdistinct
, alles wird gut.
ich benutzeFunke 0.6.1.