Resultados da pesquisa a pedido "mapreduce"

3 a resposta

Por que enviar trabalho para a mapreduce leva tanto tempo em geral?

Então, normalmente, para o trabalho de envio de cluster de 20 nós para processar 3 GB (200 divisões) de dados, leva cerca de 30 segundos e a execução real é ...

4 a resposta

Escrevendo saída para diferentes pastas hadoop

Eu quero escrever dois tipos diferentes de saída do mesmo redutor, em dois diretórios diferentes.Eu sou capaz de usar o recurso multipleoutputs no hadoop par...

4 a resposta

Como funciona o algoritmo de classificação MapReduce?

Um dos principais exemplos usados ​​para demonstrar o poder do MapReduce é aBenchmark da Terasort. Estou tendo problemas para entender os fundamentos do algo...

1 a resposta

Obtendo os resultados do MapReduce no RIAK (usando o cliente Java)

Estou armazenando POJOs de Person (4 campos de strings - id, name, lastUpdate, Data) no RIAK e, em seguida, tentando buscar esses objetos com MapReduce.Eu es...

8 a resposta

Quando as tarefas de redução começam no Hadoop?

No Hadoop, quando as tarefas de redução começam? Eles começam depois que uma determinada porcentagem (limite) de mapeadores é concluída? Em caso afirmativo, ...

3 a resposta

Hive over HBase vs Hive sobre HDFS

Meus dados não precisam ser carregados em tempo real, portanto não preciso usar o HBASE, mas gostaria de saber se há algum benefício de desempenho ao usar o ...

3 a resposta

Como lidar com geração de id em um cluster de hadoop?

Eu estou construindo um dicionário em um cluster de hadoop e preciso gerar umnumérico id para cada token. Como devo fazer isso?

2 a resposta

Onde o Sort é usado na fase do MapReduce e por quê?

Eu sou novo no hadoop aqui. Não está claro por que precisamos ser capazes de classificar por chaves ao usar hadoop mapreduce? Após a fase de mapeamento, prec...

1 a resposta

mapa mongodb reduzir no servidor multicore

Eu tenho um mongodb com milhares de registros contendo vetores muito longos. Eu estou procurando correlações entre um vetor de entrada com meu conjunto de da...

2 a resposta

Hadoop: java.lang.ClassCastException: org.apache.hadoop.io.LongWritable não pode ser convertido em org.apache.hadoop.io.Text

Meu programa parece