Wie kann PySpark im Debug-Modus aufgerufen werden?

Ich habe IntelliJ IDEA mit Apache Spark 1.4 eingerichtet.

Ich möchte in der Lage sein, meinen Spark Python-Skripten Debug-Punkte hinzuzufügen, damit ich sie leicht debuggen kann.

Ich starte gerade dieses Python-Bit, um den Funkenprozess zu initialisieren.

proc = subprocess.Popen([SPARK_SUBMIT_PATH, scriptFile, inputFile], shell=SHELL_OUTPUT, stdout=subprocess.PIPE)

if VERBOSE:
    print proc.stdout.read()
    print proc.stderr.read()

Wannspark-submit ruft schließlichmyFirstSparkScript.py, der Debug-Modus ist nicht aktiviert und wird normal ausgeführt. Leider ist das Bearbeiten des Apache Spark-Quellcodes und das Ausführen einer angepassten Kopie keine akzeptable Lösung.

Weiß jemand, ob es möglich ist, das Apache Spark-Skript im Debug-Modus per Spark-Submit aufzurufen? Wenn das so ist, wie

Antworten auf die Frage(2)

Ihre Antwort auf die Frage