Como dividir o arquivo de entrada no Apache Spark

Suponha que eu tenha um arquivo de entrada de tamanho 100 MB. Ele contém um grande número de pontos (par de latão longo) no formato CSV. O que devo fazer para dividir o arquivo de entrada em 10 arquivos de 10 MB no Apache Spark ou como personalizo a divisão.

Nota: Eu quero processar um subconjunto dos pontos em cada mapeador.

questionAnswers(2)

yourAnswerToTheQuestion