Suchergebnisse für Anfrage "hive"
Hive eine durch Kommas getrennte Tabelle hinzufügen
Ich habe eine sehr grundlegende Frage: Wie kann ich Hive eine sehr einfache Tabelle hinzufügen? Meine Tabelle wird in einer Textdatei (.txt) gespeichert, die in HDFS gespeichert wird. Ich habe versucht, eine externe Tabelle in Hive zu erstellen, ...
Effizientere Abfrage zur Vermeidung von OutOfMemoryError in Hive
Ich erhalte ein java.lang.OutOfMemoryError: GC-Overhead-Limit in Hive überschritten. Bei der Suche habe ich festgestellt, dass 98% der gesamten CPU-Zeit des Prozesses für die Speicherbereinigung aufgewendet werden (was auch immer das bedeutet?). ...
Wie werden Daten mit SparkR unnest?
UsingSparkR Wie können verschachtelte Arrays "aufgelöst" werden? Ich habe versucht mitexplode wie so: dat <- nested_spark_df %>% mutate(a=explode(metadata)) %>% head()Aber obwohl das oben Genannte nicht dazu führt, dass eine Ausnahme ausgelöst ...
Beim Importieren einer Datei in Hive mit sqoop @ ist ein Fehler aufgetrete
Ich versuche, die Datenbanktabellen retail_db in die bereits erstellte Strukturdatenbank zu kopieren. Wenn ich den folgenden Code ausführe sqoop import-all-tables \ --num-mappers 1 \ --connect "jdbc:mysql://quickstart.cloudera:3306/retail_db" \ ...
Spark letzte Aufgabe dauert 100x länger als die ersten 199, wie man @ verbesse
Beim Ausführen von Abfragen mit Datenrahmen treten einige Leistungsprobleme auf. Ich habe in meinen Nachforschungen festgestellt, dass langfristige Aufgaben ein Zeichen dafür sein können, dass Daten nicht optimal gestört werden, aber keinen ...
Fehler beim Verbinden der Anwendung node.js mit der Struktur
Ich habe Node-Hive und Thrift verwendet, um die Anwendung meines Knotens mit Hive zu verbinden, aber keines davon funktioniert. Gibt es andere Knotenmodule, um eine Verbindung zum Hive herzustellen?
Daten mit benutzerdefiniertem Trennzeichen in Hive laden
Ich versuche, eine interne (verwaltete) Tabelle in der Struktur zu erstellen, in der meine inkrementellen Protokolldaten gespeichert werden können. Die Tabelle sieht so aus: CREATE TABLE logs (foo INT, bar STRING, created_date TIMESTAMP) ROW ...
Spark 2.0 - "Tabelle oder Ansicht nicht gefunden" beim Abfragen von Hive [closed]
Wenn Hive über @ abgefragt wispark-shell 2.0: spark.sql("SELECT * FROM schemaname.tablename")It löst einen Fehler aus: 16/08/13 09:24:17 INFO execution.SparkSqlParser: Parsing command: SELECT * FROM schemaname.tablename ...
So optimieren Sie den Scan von 1 großen Datei / Tabelle in Hive, um zu überprüfen, ob ein langer Punkt in einer Geometrieform enthalten ist
Ich versuche derzeit, jeden lat long Ping von einem Gerät mit seiner Postleitzahl zu verknüpfen. Ich habe Geräte-Ping-Daten für lange Zeiträume normalisiert und eine produktübergreifende / kartesische Produktverknüpfungstabelle erstellt, in ...
Können HiveConf-Variablen aus einer Datei geladen werden? (Trennen Sie sich von der HiveQL-Datei)
Ich habe oft einen großen HiveQL-Block, den ich mehrmals mit unterschiedlichen Einstellungen für einige Variablen ausführen möchte. Ein einfaches Beispiel wäre: set mindate='2015-01-01 00:00:00' set maxdate='2015-04-01 00:00:00' select * from ...