Suchergebnisse für Anfrage "hadoop"
Zusätzliche Gläser über spark-submit @ an Spark weiterleit
Ich verwende Spark mit MongoDB und verlasse mich daher auf diemongo-hadoop Fahrer. Ich habe die Dinge zum Laufen gebracht, dank der Eingabe meiner ursprünglichen ...
Oozie> Java-Aktion> Warum funktioniert die Eigenschaft oozie.launcher.mapred.child.java.opts nicht?
Ich arbeite mit einer Java-Aktion an Oozie. Die Java-Aktion sollte die Java-Option -Xmx15g verwenden. Dementsprechend setze ich die Eigenschaft oozie.mapreduce.map.memory.mb auf 25600 (25G), falls zusätzlicher Speicher benötigt wird. Nach dieser ...
/ bin / bash: / bin / java: Keine solche Datei oder Verzeichnis
Ich habe versucht, ein einfaches MapReduce-Programm mit WordCount unter Verwendung von Java 1.7 SDK und Hadoop2.7.1 unter Mac OS X EL Captain 10.11 auszuführen. In meinem Containerprotokoll "stderr" / bin / bash wird folgende Fehlermeldung ...
Alter Hive-Tabelle Spalte hinzufügen oder löschen
Ich habe eine Ork-Tabelle im Bienenstock. Ich möchte eine Spalte aus dieser Tabelle entfernen. ALTER TABLE table_name drop col_name;aber ich erhalte die folgende Ausnahme ei der Ausführung der Hive-Abfrage ist ein Fehler aufgetreten: ...
Versuchen Sie, Aktualisierungen oder Löschvorgänge mit dem Transaktionsmanager durchzuführen, der diese Vorgänge nicht unterstützt.
Während ich versuche, Daten in der Hive-Tabelle in der Cloudera Quickstart VM zu aktualisieren, wird dieser Fehler angezeigt. Fehler beim Kompilieren der Anweisung: FEHLGESCHLAGEN: SemanticException [Fehler 10294]: Versuch, mit dem ...
Wie sieht die Datei hive-site.xml aus, die in $ SPARK_HOME enthalten ist?
Ich bin ein Anfänger im Bienenstock, etwas ist passiert (kann keinen Tisch finden), als ich einen Funkenjob beginne und Daten aus dem Bienenstock lese. Ich setze hive-site.xml nicht in $ SPARK_HOME / conf? Senden Sie den Funkenauftrag Befehl ist ...
Wann sind Dateien "aufteilbar"?
Wenn ich spark verwende, stoße ich manchmal auf eine große Datei in einem BIENENSTOC table, und ich versuche manchmal, viele kleinere Dateien in einer HIVE-Tabelle zu verarbeiten. Ich verstehe, dass beim Optimieren von Spark-Jobs die ...
Ausführen einer eigenständigen Hadoop-Anwendung auf mehreren CPU-Kernen
Mein Team erstellte eine Java-Anwendung unter Verwendung der Hadoop-Bibliotheken, um eine Reihe von Eingabedateien in nützliche Ausgaben umzuwandeln. Bei der aktuellen Auslastung reicht ein einzelner Multicore-Server für das kommende Jahr aus. ...
Warum ist mein BroadcastHashJoin langsamer als ShuffledHashJoin in Spark
Ich führe einen Join mit einem @ ajavaHiveContext in Spark. Der große Tisch hat eine Größe von 1,76 GB und einen Rekord von 100 Millionen. Die zweite Tabelle hat eine Größe von 273 MB und einen Datensatz von 10 Millionen. Ich bekomme ...
konnte anstelle von minReplication (= 1) nur auf 0 Knoten repliziert werden. Es werden 4 Datenknoten ausgeführt, und in dieser Operation werden keine Knoten ausgeschlossen.
Ich weiß nicht, wie ich diesen Fehler beheben kann: Vertex failed, vertexName=initialmap, vertexId=vertex_1449805139484_0001_1_00, diagnostics=[Task failed, ...