Importieren von Pyspark in Python-Shell

Dies ist eine Kopie der Frage einer anderen Person in einem anderen Forum, die nie beantwortet wurde. Ich dachte, ich würde sie hier noch einmal stellen, da ich das gleiche Problem habe. (Sehenhttp://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)

Ich habe Spark ordnungsgemäß auf meinem Computer installiert und kann Python-Programme mit den Pyspark-Modulen fehlerfrei ausführen, wenn ich ./bin/pyspark als Python-Interpreter verwende.

Wenn ich jedoch versuche, die reguläre Python-Shell auszuführen, bekomme ich beim Importieren von Pyspark-Modulen den folgenden Fehler:

from pyspark import SparkContext

und es heißt

"No module named pyspark".

Wie kann ich das beheben? Gibt es eine Umgebungsvariable, die ich festlegen muss, um Python auf die Pyspark-Header / Bibliotheken / etc. Zu verweisen? Wenn meine Spark-Installation / spark / ist, welche Pyspark-Pfade muss ich einschließen? Oder können Pyspark-Programme nur über den Pyspark-Interpreter ausgeführt werden?

Antworten auf die Frage(17)

Ihre Antwort auf die Frage