Importar pyspark en Python Shell

Esta es una copia de la pregunta de otra persona en otro foro que nunca fue respondida, así que pensé en volver a preguntarla aquí, ya que tengo el mismo problema. (Verhttp://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)

Tengo instalado Spark correctamente en mi máquina y puedo ejecutar programas de Python con los módulos de pyspark sin error cuando uso ./bin/pyspark como mi intérprete de Python.

Sin embargo, cuando intento ejecutar el shell Python normal, cuando trato de importar módulos pyspark obtengo este error:

from pyspark import SparkContext

y dice

"No module named pyspark".

¿Cómo puedo arreglar esto? ¿Hay una variable de entorno que necesito establecer para apuntar Python a los encabezados / bibliotecas / pyspark / etc.? Si mi instalación de chispa es / spark /, ¿qué rutas de pyspark debo incluir? ¿O los programas pyspark solo se pueden ejecutar desde el intérprete pyspark?