импорт pyspark в оболочку python

Это копия чьего-то вопроса на другом форуме, на который так и не был получен ответ, поэтому я подумал, что переспрошу его здесь, так как у меня такая же проблема. (Видетьhttp://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)

У меня правильно установлен Spark на моей машине, и я могу без проблем запускать программы на python с модулями pyspark при использовании ./bin/pyspark в качестве интерпретатора python.

Однако, когда я пытаюсь запустить обычную оболочку Python, когда я пытаюсь импортировать модули pyspark, я получаю эту ошибку:

from pyspark import SparkContext

и это говорит

"No module named pyspark".

Как я могу это исправить? Есть ли переменная окружения, которую мне нужно установить, чтобы указать Python на заголовки / библиотеки pyspark / и т.д.? Если у меня установлена установка spark / / spark /, какие пути pyspark мне нужно включить? Или программы pyspark можно запускать только из интерпретатора pyspark?

Ответы на вопрос(17)

Ваш ответ на вопрос