Suchergebnisse für Anfrage "apache-spark"

10 die antwort

Split 1 Spalte in 3 Spalten in Spark Scala

Ich habe einen Datenframe in Spark mit Scala, der eine Spalte enthält, die geteilt werden muss. scala> test.show +-------------+ |columnToSplit| +-------------+ | a.b.c| | d.e.f| +-------------+ Ich brauche diese Spalte aufgeteilt, um so ...

6 die antwort

Wie erstelle ich einen einfachen Spark Graphframe mit Java?

rundsätzlich bin ich ein Java-Entwickler und habe nun die Möglichkeit, an Spark zu arbeiten. Ich habe die Grundlagen der Spark-API durchgearbeitet, wie SparkConfig, SparkContaxt, RDD, SQLContaxt, DataFrame, DataSet und dann kann ich einige ...

4 die antwort

Ist Spark's KMeans nicht in der Lage mit BigData umzugehen?

KMeans hat mehrere Parameter für seinAusbildun [http://spark.apache.org/docs/latest/api/python/pyspark.mllib.html?highlight=kmeans#pyspark.mllib.clustering.KMeans.train] , wobei der Initialisierungsmodus auf kmeans || voreingestellt ist. Das ...

TOP-Veröffentlichungen

2 die antwort

Bereite meine BigData mit Spark via Python vor

Meine 100 m große, quantisierte Daten: (1424411938', [3885, 7898]) (3333333333', [3885, 7898])Erwünschtes Ergebnis (3885, [3333333333, 1424411938]) (7898, [3333333333, 1424411938]) Also, was ich will, ist, die Daten so zu transformieren, dass ...

2 die antwort

Spark Dataframe Maximale Spaltenanzahl

Was ist die maximale Spaltenanzahl von spark Dataframe? Ich habe versucht, es aus der Datenrahmendokumentation abzurufen, konnte es jedoch nicht finden.

2 die antwort

Ausnahme beim Zugriff auf KafkaOffset über RDD

Ich habe einen Spark-Konsumenten, der von Kafka streamt. Ich versuche, Offsets für genau eine Semantik zu verwalten. Beim Zugriff auf den Offset wird jedoch die folgende Ausnahme ausgelöst: "java.lang.ClassCastException: ...

4 die antwort

Spark druckt keine Ausgaben auf der Konsole innerhalb der Kartenfunktion

Ich habe eine einfache Spark-Anwendung, die im Cluster-Modus ausgeführt wird. val funcGSSNFilterHeader = (x: String) => { println(!x.contains("servedMSISDN") !x.contains("servedMSISDN") } val ssc = new ...

4 die antwort

Wie erzwinge ich, dass Spark DataFrame-Vorgänge inline auswertet?

Laut demSpark RDD docs [http://spark.apache.org/docs/latest/programming-guide.html#rdd-operations]: Alle Transformationen in Spark sind insofern faul, als sie ihre Ergebnisse nicht sofort berechnen ... Durch dieses Design kann Spark effizienter ...

2 die antwort

Anzahl der Partitionen von Spark Dataframe

Kann jemand erklären, wie viele Partitionen für einen Spark-Datenrahmen erstellt werden. Ich weiß, dass wir beim Erstellen einer RDD die Anzahl der Partitionen wie folgt angeben können. val RDD1 = sc.textFile("path" , 6)Aber für ...

4 die antwort

wie man json mit schema in spark dataframes / spark sql liest

sql / dataframes, bitte helfen Sie mir oder machen Sie einen guten Vorschlag, wie man diesen json @ lies { "billdate":"2016-08-08', "accountid":"xxx" "accountdetails":{ "total":"1.1" "category":[ { "desc":"one", "currentinfo":{ "value":"10" }, ...