Use o Spark para listar todos os arquivos em um diretório Hadoop HDFS?

Desejo percorrer todos os arquivos de texto em um diretório do Hadoop e contar todas as ocorrências da palavra "erro". Existe uma maneira de fazer umhadoop fs -ls /users/ubuntu/ listar todos os arquivos em um diretório com a API do Apache Spark Scala?

Do dadoprimeiro exemplo, o contexto do spark parece acessar apenas os arquivos individualmente por meio de algo como:

val file = spark.textFile("hdfs://target_load_file.txt")

No meu problema, não sei quantos nem os nomes dos arquivos na pasta HDFS anteriormente. Olhou para odocumentos de contexto de faísca mas não conseguiu encontrar esse tipo de funcionalidade.

questionAnswers(2)

yourAnswerToTheQuestion