Suchergebnisse für Anfrage "hive"
Was sind die Formate für Sequenzdateien und Parkettdateien in Hive?
Können Sie anhand eines Echtzeitbeispiels erklären, wo Sequenzdatei und Parkettdatei verwendet werden sollen?
Wie erstelle ich SparkSession mit Hive-Unterstützung (schlägt fehl, wenn "Hive-Klassen nicht gefunden werden")?
Ich erhalte diese Fehlermeldung, wenn ich versuche, diesen Code auszuführen. import org.apache.spark.sql.Dataset; import org.apache.spark.sql.Row; import org.apache.spark.sql.SparkSession; public class App { public static void main(String[] ...
Export als CSV im Bienenstock
Ich versuche, meine Hive-Tabelle als CSV in Beeline Hive zu exportieren. Wenn ich den Befehl!sql select * from database1 > /user/bob/output.csv es gibt mir Syntaxfehler. Ich habe zu diesem Zeitpunkt mit dem folgenden Befehl eine Verbindung ...
Wie man von spark @ eine Verbindung zum Remote-Hive-Server herstel
Ich führe Spark lokal aus und möchte auf Hive-Tabellen zugreifen, die sich im fernen Hadoop-Cluster befinden. Ich kann auf die Hive-Tabellen zugreifen, indem ich beeline unter SPARK_HOME @ start [ml@master spark-2.0.0]$./bin/beeline Beeline ...
Sqoop Import Split by Column Datentyp
Sollte der Datentyp Split by column beim sqoop-Import immer ein Zahlen-Datentyp sein (Integer, Bignint, Numeric)? Kann es nicht eine Zeichenfolge sein?
Extrahieren Sie die Hive-Tabellenpartition in Spark - java
Gibt es in Spark eine Möglichkeit, nur die Namen der Partitionsspalten zu extrahieren? Die Problemumgehung, die ich verwende, besteht darin, "show extended table like table_name "mitHiveContext
Wie werden die Zeilen in der ursprünglichen Reihenfolge in Hive ausgewählt?
Ich möchte Zeilen aus mytable in Originalzeilen mit bestimmten Nummern auswählen. Wie wir wissen, wählt das Schlüsselwort 'limit' zufällig Zeilen aus. Die Zeilen in mytable sind in Ordnung. Ich möchte sie nur in ihrer ursprünglichen Reihenfolge ...
Wie implementiere ich Auto-Inkrement in Spark-SQL (PySpark)?
Ich muss eine Auto-Inkrement-Spalte in meine Spark-SQL-Tabelle implementieren, wie könnte ich das tun. Bitte führe mich. Ich benutze Pyspark 2.0 Danke Kalyan
Verwenden Sie mehr als eine collect_list in einer Abfrage in Spark SQL
Ich habe den folgenden Datenrahmendata: root |-- userId: string |-- product: string |-- rating: doubleund die folgende Abfrage: val result = sqlContext.sql("select userId, collect_list(product), collect_list(rating) from data group by ...
Das Root-Scratch-Verzeichnis: / tmp / hive unter HDFS sollte beschreibbar sein. Aktuelle Berechtigungen sind: -wx ------
Ich habe die Berechtigung mit dem Befehl hdfs geändert. Trotzdem wird derselbe Fehler angezeigt. Das Root-Scratch-Verzeichnis: / tmp / hive unter HDFS sollte beschreibbar sein. Aktuelle Berechtigungen sind: -wx ------ Java Programm, das ich ...