Suchergebnisse für Anfrage "hadoop"
Hive Table gibt für alle Abfragen eine leere Ergebnismenge zurück
Ich habe eine Hive-Tabelle erstellt, die Daten aus einer Textdatei lädt. Die zurückgegebene leere Ergebnismenge gilt jedoch für alle Abfragen. Ich habe den folgenden Befehl ausprobiert: CREATE TABLE table2( id1 INT, id2 INT, id3 INT, id4 ...
Remote-HDFS-Datei mit Java lesen
Ich habe ein paar Probleme mit einer einfachen Hadoop-Installation. Ich habe Hadoop 2.4.0 heruntergeladen und auf einem einzelnen CentOS Linux-Knoten (Virtual Machine) installiert. Ich habe Hadoop für einen einzelnen Knoten mit Pseudoverteilung ...
Wie starte ich graphx mit Python / Pyspark?
Ich versuche, Spark Graphx mit Python unter Verwendung von Pyspark auszuführen. Meine Installation scheint korrekt zu sein, da ich die Pyspark-Tutorials und die (Java) GraphX-Tutorials problemlos ausführen kann. Da GraphX vermutlich Teil ...
Hadoop 2.4 Ziel konnte nicht ausgeführt werden org.apache.maven.plugins: maven-antrun-plugin: 1.7
Ich versuche, Hadoop 2.4.0 von der Quelle zu installieren. Ich habe die folgende Fehlermeldung erhalten, habe herumgegoogelt, kann aber keine Lösung finden. Bitte helfen Sie. Grüße Betriebssystem Ubuntu: 12.04 (64-Bit) Java: Java-Version ...
Verwenden Sie Spark, um alle Dateien in einem Hadoop HDFS-Verzeichnis aufzulisten?
Ich möchte alle Textdateien in einem Hadoop-Verzeichnis durchlaufen und alle Vorkommen des Wortes "error" zählen. Gibt es eine Möglichkeit, ahadoop fs -ls /users/ubuntu/ Auflisten aller Dateien in einem Verzeichnis mit der Apache ...
Das Wordcount-Programm steckt in hadoop-2.3.0 fest
Ich habe hadoop-2.3.0 installiert und versucht, das Wordcount-Beispiel auszuführen, aber es startet den Job und befindet sich im Leerlauf hadoop@ubuntu:~$ $HADOOP_HOME/bin/hadoop ...
Was ist der Unterschied zwischen einer RDD-Partition und einem Slice?
DasSpark-Programmierhandbuch [http://spark.apache.org/docs/latest/scala-programming-guide.html]Erwähnt Slices als Feature von RDDs (sowohl parallele Auflistungen als auch Hadoop-Datasets). ("Spark führt eine Task für jeden Slice des Clusters ...
So schreiben Sie in Spark an CSV
Ich versuche, eine effektive Methode zum Speichern des Ergebnisses meines Spark-Jobs als CSV-Datei zu finden. Ich verwende Spark mit Hadoop und bis jetzt werden alle meine Dateien gespeichert alspart-00000. Irgendwelche Ideen, wie ich meinen ...
Sqoop 1.99.3 funktioniert nicht mit Apache Hadoop 2.4.0 auf 64-Bit-Centos 6.5
Ich habe Apache Hadoop arbeiten und auf Centos 6.5 KVM-Server installiert. Es ist installiert bei /home/hduser/yarn/hadoop-2.4.0 and the config files are in /home/hduser/yarn/hadoop-2.4.0/etc/hadoop.Ich habe Beschwerden von Hadoop erhalten, dass ...
Java-Client für Secure Hbase
Hallo, ich versuche, einen Java-Client für sichere hbase zu schreiben. Ich möchte kinit auch vom Code selbst für das tun, das ich die Benutzergruppeninformationsklasse benutze. Kann jemand darauf hinweisen, wo ich hier falsch liege? Dies ist die ...