Resultados de la búsqueda a petición "hadoop"
¿Cómo puedo calcular la mediana exacta con Apache Spark?
Estapágina [https://spark.apache.org/docs/0.7.0/api/core/spark/api/java/JavaDoubleRDD.html] contiene algunas funciones estadísticas (media, stdev, varianza, etc.) pero no contiene la mediana. ¿Cómo puedo calcular la mediana exacta? Gracias
Hadoop accede a bibliotecas de terceros desde el sistema de archivos local de un nodo Hadoop
Tengo un archivo jar en todos mis nodos de Hadoop en/home/ubuntu/libs/javacv-0.9.jar , con algunos otros archivos jar. Cuando miMapa reducido la aplicación se está ejecutando enHadoop nodos, obtengo esta excepción java.io.FileNotFoundException: ...
¿Cómo puede buscar todas las tablas con un nombre de columna dado y devolver qué tablas tienen este nombre de columna en Hadoop / Hive?
¿Estoy buscando encontrar todas las tablas que contienen un nombre de columna dado en HDFS / Hive?
SafeModeException en cosmos.lab.fi-ware.org
De acuerdo con la ...
Insertar datos en Hbase usando Hive (archivo JSON)
Ya he creado una tabla en hbase usando hive: hive> CREATE TABLE hbase_table_emp(id int, name string, role string) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = ...
¿Es posible cargar la mesa de parquet directamente desde el archivo?
Si tengo un archivo de datos binarios (se puede convertir a formato csv), ¿hay alguna forma de cargar la tabla de parquet directamente desde él? Muchos tutoriales muestran cómo cargar el archivo csv en la tabla de texto, y luego de la tabla de ...
leer y escribir desde tablas de colmena con chispa después de la agregación
Tenemos un almacén de colmenas y queríamos usar la chispa para diversas tareas (principalmente clasificación). A veces, escriba los resultados como una tabla de colmena. Por ejemplo, escribimos la siguiente función de python para encontrar la ...
Error de Apache Spark: no se pudo conectar a akka.tcp: // sparkMaster @
Estos son nuestros primeros pasos utilizando cosas de big data como apache spark y hadoop. Tenemos instalado Cloudera CDH 5.3. Desde el administrador de cloudera elegimos instalar spark. Spark está funcionando muy bien en uno de los nodos del ...
Colmena Tabla externa frente a comandos de tabla interna
Suponiendo que tengo estas dos tablas: Externo: create external table emp_feedback ( emp_id int, emp_name string ) LOCATION '/user/hive/warehouse/mydb.db/contacts';Interno: create table emp_feedback ( emp_id int, emp_name string ) LOAD DATA ...
¿Cómo agregar jar externo al trabajo de hadoop?
Tengo un trabajo de Hadoop en el que el mapeador debe usar un jar externo. Traté de pasar este frasco a la JVM del mapeador a través del argumento -libjars en el comando hadoop hadoop jar mrrunner.jar DAGMRRunner -libjars ...