Resultados da pesquisa a pedido "mapreduce"
Lendo HDFS e arquivos locais em Java
Eu quero ler os caminhos de arquivo, independentemente de serem HDFS ou locais. Atualmente, passo os caminhos locais com o prefixo file: // e os caminhos HDF...
Configuração de ignição: SPARK_MEM vs. SPARK_WORKER_MEMORY
Em spark-env.sh, é possível configurar as seguintes variáveis de ambiente:
Tarefa MapReduce com origens de dados mistas: tabela HBase e arquivos HDFS
Eu preciso implementar um trabalho de RM que acesse dados da tabela HBase e dos arquivos HDFS. Por exemplo, o mapeador lê dados da tabela HBase e de arquivos...
Definindo textinputformat.record.delimiter em faísca
No Spark, é possível definir algumas configurações de hadoop como, por ex.