Resultados de la búsqueda a petición "hadoop"

2 la respuesta

¿Cómo puedo calcular la mediana exacta con Apache Spark?

Estapágina [https://spark.apache.org/docs/0.7.0/api/core/spark/api/java/JavaDoubleRDD.html] contiene algunas funciones estadísticas (media, stdev, varianza, etc.) pero no contiene la mediana. ¿Cómo puedo calcular la mediana exacta? Gracias

2 la respuesta

Hadoop accede a bibliotecas de terceros desde el sistema de archivos local de un nodo Hadoop

Tengo un archivo jar en todos mis nodos de Hadoop en/home/ubuntu/libs/javacv-0.9.jar , con algunos otros archivos jar. Cuando miMapa reducido la aplicación se está ejecutando enHadoop nodos, obtengo esta excepción java.io.FileNotFoundException: ...

1 la respuesta

¿Cómo puede buscar todas las tablas con un nombre de columna dado y devolver qué tablas tienen este nombre de columna en Hadoop / Hive?

¿Estoy buscando encontrar todas las tablas que contienen un nombre de columna dado en HDFS / Hive?

1 la respuesta

SafeModeException en cosmos.lab.fi-ware.org

De acuerdo con la ...

1 la respuesta

Insertar datos en Hbase usando Hive (archivo JSON)

Ya he creado una tabla en hbase usando hive: hive> CREATE TABLE hbase_table_emp(id int, name string, role string) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = ...

1 la respuesta

¿Es posible cargar la mesa de parquet directamente desde el archivo?

Si tengo un archivo de datos binarios (se puede convertir a formato csv), ¿hay alguna forma de cargar la tabla de parquet directamente desde él? Muchos tutoriales muestran cómo cargar el archivo csv en la tabla de texto, y luego de la tabla de ...

3 la respuesta

leer y escribir desde tablas de colmena con chispa después de la agregación

Tenemos un almacén de colmenas y queríamos usar la chispa para diversas tareas (principalmente clasificación). A veces, escriba los resultados como una tabla de colmena. Por ejemplo, escribimos la siguiente función de python para encontrar la ...

3 la respuesta

Error de Apache Spark: no se pudo conectar a akka.tcp: // sparkMaster @

Estos son nuestros primeros pasos utilizando cosas de big data como apache spark y hadoop. Tenemos instalado Cloudera CDH 5.3. Desde el administrador de cloudera elegimos instalar spark. Spark está funcionando muy bien en uno de los nodos del ...

2 la respuesta

Colmena Tabla externa frente a comandos de tabla interna

Suponiendo que tengo estas dos tablas: Externo: create external table emp_feedback ( emp_id int, emp_name string ) LOCATION '/user/hive/warehouse/mydb.db/contacts';Interno: create table emp_feedback ( emp_id int, emp_name string ) LOAD DATA ...

3 la respuesta

¿Cómo agregar jar externo al trabajo de hadoop?

Tengo un trabajo de Hadoop en el que el mapeador debe usar un jar externo. Traté de pasar este frasco a la JVM del mapeador a través del argumento -libjars en el comando hadoop hadoop jar mrrunner.jar DAGMRRunner -libjars ...