entrada (nula) na exceção da cadeia de comandos em saveAsTextFile () no Pyspark

Estou trabalhando no PySpark em um notebook Jupyter (Python 2.7) no Windows 7. Tenho um RDD do tipopyspark.rdd.PipelinedRDD chamadoidSums. Ao tentar executaridSums.saveAsTextFile("Output"), Recebo o seguinte erro:

Py4JJavaError: An error occurred while calling o834.saveAsTextFile.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 1 in stage 33.0 failed 1 times, most recent failure: Lost task 1.0 in stage 33.0 (TID 131, localhost): java.io.IOException: (null) entry in command string: null chmod 0644 C:\Users\seride\Desktop\Experiments\PySpark\Output\_temporary\0\_temporary\attempt_201611231307_0033_m_000001_131\part-00001

Não deve haver nenhum problema com o objeto RDD, na minha opinião, porque sou capaz de executar outras ações sem erros, por exemplo. executandoidSums.collect() produz a saída correta.

Além disso, oOutput O diretório é criado (com todos os subdiretórios) e o arquivopart-00001 é criado, mas tem 0 bytes.

questionAnswers(3)

yourAnswerToTheQuestion