Resultados da pesquisa a pedido "hadoop"

2 a resposta

Como obter dados da tabela Phoenix via serviço HBase REST

Criei uma tabela HBase usando o driver JDBC Phoenix no seguinte trecho de código: Class.forName("org.apache.phoenix.jdbc.PhoenixDriver"); Connection conn ...

1 a resposta

Como lidar com memória de derramamento no porco

Meu código é assim:

2 a resposta

Como enumerar arquivos no diretório HDFS

Como enumerar arquivos no diretório HDFS? Isso é para enumerar arquivos no cluster Apache Spark usando o Scala. Vejo que há a opção sc.textfile (), mas isso também lerá o conteúdo. Eu quero ler apenas nomes de arquivos. Na verdade, eu tentei o ...

1 a resposta

Como obter paginação no HBase?

Eu sou novo no Hbase e preciso implementar a paginação usando Java com Jersey e Hbase como meu banco de dados. Preciso de ajuda, como posso conseguir a paginação com o Hbase, pois os dados serão distribuídos entre várias regiões. Quero mostrar ...

5 a resposta

Mais de 120 contadores em hadoop

Há um limite para o tamanho do contador do Hadoop. É 120 por padrão. Eu tento usar a configuração "mapreduce.job.counters.limit" para mudar isso, m...

2 a resposta

Ao usar --negotiate com curl, é necessário um arquivo keytab?

odocumentação [http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/WebHDFS.html] descrever como se conectar a um ponto de extremidade seguro do kerberos mostra o seguinte: curl -i --negotiate -u : ...

2 a resposta

Usando várias entradas do mapeador em um trabalho de streaming no hadoop?

Em java eu ​​usaria:MultipleInputs.addInputPath (conf, caminho, inputFormatClass, mapperClass)para adicionar várias entradas com um mapeador diferente para c...

3 a resposta

versões do apache hadoop 2.0 vs. 0.23

1 a resposta

Leia o arquivo de texto do System para o Hbase MapReduce

Eu preciso carregar dados do arquivo de texto para o Map Reduce, eu pesquisei na web, mas não encontrei nenhuma solução certa para o meu trabalho.Existe algu...

2 a resposta

Apache Pig: Carrega um arquivo que mostra bem usando o hadoop fs -text

Eu tenho arquivos que são nomeados parte-r-000 [0-9] [0-9] e que contêm campos separados por tabulações. Posso visualizá-los usando