importando o pyspark no shell python

Esta é uma cópia da pergunta de outra pessoa em outro fórum que nunca foi respondida, então pensei em pedir novamente aqui, pois tenho o mesmo problema. (Vejohttp://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)

Tenho o Spark instalado corretamente na minha máquina e consigo executar programas python com os módulos pyspark sem erros ao usar ./bin/pyspark como meu intérprete python.

No entanto, quando tento executar o shell Python regular, quando tento importar os módulos pyspark, recebo este erro:

from pyspark import SparkContext

e diz

"No module named pyspark".

Como posso consertar isso? É necessário definir uma variável de ambiente para apontar o Python para os cabeçalhos / bibliotecas / etc do pyspark? Se minha instalação do spark for / spark /, quais caminhos do pyspark eu preciso incluir? Ou os programas pyspark podem ser executados apenas a partir do intérprete pyspark?

questionAnswers(17)

yourAnswerToTheQuestion