Resultados da pesquisa a pedido "apache-spark"

2 a resposta

chamada de distinta e mapa juntos joga NPE na biblioteca de faísca

Eu não tenho certeza se isso é um bug, então se você fizer algo assim

1 a resposta

suporte a gzip no Spark

1 a resposta

Configuração de ignição: SPARK_MEM vs. SPARK_WORKER_MEMORY

Em spark-env.sh, é possível configurar as seguintes variáveis ​​de ambiente:

2 a resposta

Spark: qual é a melhor estratégia para unir um RDD de duas tuplas com RDD de chave única?

Eu tenho dois RDD's que quero juntar e eles se parecem com isso:

1 a resposta

Definindo textinputformat.record.delimiter em faísca

No Spark, é possível definir algumas configurações de hadoop como, por ex.

1 a resposta

Existe algum implemento Spark ou Giraph do método Louvain?

5 a resposta

Como ler arquivos XML da estrutura de ignição do apache?

3 a resposta

O que vai acontecer se eu não tiver memória suficiente?

Sou novo no Spark e descobri que a documentação diz que o Spark carregará os dados na memória para tornar os algoritmos de iteração mais rápidos.Mas e se eu ...

2 a resposta

Como usar o Hadoop InputFormats no Apache Spark?

Eu tenho aulaImageInputFormat no Hadoop, que lê imagens do HDFS. Como usar meu InputFormat no Spark? Aqui está o meuImageInputFormat: public class ImageInputFormat extends FileInputFormat<Text, ImageWritable> { @Override public ...

1 a resposta

Lista (ou iterador) de tuplas retornadas pelo MAP (PySpark)

Eu tenho um método mapeador: def mapper(value): ... for key, value in some_list: yield key, valueo que eu preciso não está muito longe do exemplo comum de contagem de palavras, na verdade. Eu já tenho um script de trabalho, mas apenas se o ...