Suchergebnisse für Anfrage "hadoop"

4 die antwort

Zusätzliche Gläser über spark-submit @ an Spark weiterleit

Ich verwende Spark mit MongoDB und verlasse mich daher auf diemongo-hadoop Fahrer. Ich habe die Dinge zum Laufen gebracht, dank der Eingabe meiner ursprünglichen ...

2 die antwort

Oozie> Java-Aktion> Warum funktioniert die Eigenschaft oozie.launcher.mapred.child.java.opts nicht?

Ich arbeite mit einer Java-Aktion an Oozie. Die Java-Aktion sollte die Java-Option -Xmx15g verwenden. Dementsprechend setze ich die Eigenschaft oozie.mapreduce.map.memory.mb auf 25600 (25G), falls zusätzlicher Speicher benötigt wird. Nach dieser ...

12 die antwort

/ bin / bash: / bin / java: Keine solche Datei oder Verzeichnis

Ich habe versucht, ein einfaches MapReduce-Programm mit WordCount unter Verwendung von Java 1.7 SDK und Hadoop2.7.1 unter Mac OS X EL Captain 10.11 auszuführen. In meinem Containerprotokoll "stderr" / bin / bash wird folgende Fehlermeldung ...

TOP-Veröffentlichungen

12 die antwort

Alter Hive-Tabelle Spalte hinzufügen oder löschen

Ich habe eine Ork-Tabelle im Bienenstock. Ich möchte eine Spalte aus dieser Tabelle entfernen. ALTER TABLE table_name drop col_name;aber ich erhalte die folgende Ausnahme ei der Ausführung der Hive-Abfrage ist ein Fehler aufgetreten: ...

2 die antwort

Versuchen Sie, Aktualisierungen oder Löschvorgänge mit dem Transaktionsmanager durchzuführen, der diese Vorgänge nicht unterstützt.

Während ich versuche, Daten in der Hive-Tabelle in der Cloudera Quickstart VM zu aktualisieren, wird dieser Fehler angezeigt. Fehler beim Kompilieren der Anweisung: FEHLGESCHLAGEN: SemanticException [Fehler 10294]: Versuch, mit dem ...

8 die antwort

Wie sieht die Datei hive-site.xml aus, die in $ SPARK_HOME enthalten ist?

Ich bin ein Anfänger im Bienenstock, etwas ist passiert (kann keinen Tisch finden), als ich einen Funkenjob beginne und Daten aus dem Bienenstock lese. Ich setze hive-site.xml nicht in $ SPARK_HOME / conf? Senden Sie den Funkenauftrag Befehl ist ...

2 die antwort

Wann sind Dateien "aufteilbar"?

Wenn ich spark verwende, stoße ich manchmal auf eine große Datei in einem BIENENSTOC table, und ich versuche manchmal, viele kleinere Dateien in einer HIVE-Tabelle zu verarbeiten. Ich verstehe, dass beim Optimieren von Spark-Jobs die ...

8 die antwort

Ausführen einer eigenständigen Hadoop-Anwendung auf mehreren CPU-Kernen

Mein Team erstellte eine Java-Anwendung unter Verwendung der Hadoop-Bibliotheken, um eine Reihe von Eingabedateien in nützliche Ausgaben umzuwandeln. Bei der aktuellen Auslastung reicht ein einzelner Multicore-Server für das kommende Jahr aus. ...

2 die antwort

Warum ist mein BroadcastHashJoin langsamer als ShuffledHashJoin in Spark

Ich führe einen Join mit einem @ ajavaHiveContext in Spark. Der große Tisch hat eine Größe von 1,76 GB und einen Rekord von 100 Millionen. Die zweite Tabelle hat eine Größe von 273 MB und einen Datensatz von 10 Millionen. Ich bekomme ...

2 die antwort

konnte anstelle von minReplication (= 1) nur auf 0 Knoten repliziert werden. Es werden 4 Datenknoten ausgeführt, und in dieser Operation werden keine Knoten ausgeschlossen.

Ich weiß nicht, wie ich diesen Fehler beheben kann: Vertex failed, vertexName=initialmap, vertexId=vertex_1449805139484_0001_1_00, diagnostics=[Task failed, ...