Suchergebnisse für Anfrage "scala"

6 die antwort

Wie formatiere ich Strings in Scala?

Ich muss eine formatierte Zeichenfolge drucken, die scala.Long enthält. java.lang.String.format () ist nicht kompatibel mit scala.Long (Kompilierungszeit) und RichLong (java.util.IllegalFormatConversionException) Compiler warnt vor dem Verfall ...

4 die antwort

Wie kann ich jedes Element einer Liste ändern, während ich in Scala darüber iteriere?

Ich habe eine Liste mit Zeichenfolgen, die folgendermaßen deklariert ist: var re1_emoticons=""::NilWelche ich dann mit Emoticons (Strings) ausgefüllt habe. Ich versuche ein @ hinzuzufüg\\ am Anfang jeder Zeichenfolge inre1_emoticons, Änderung ...

12 die antwort

Provide Schema beim Lesen der CSV-Datei als Datenframe

Ich versuche, eine CSV-Datei in einen Datenrahmen einzulesen. Ich weiß, wie das Schema meines Datenrahmens aussehen soll, da ich meine CSV-Datei kenne. Außerdem verwende ich das Spark-CSV-Paket, um die Datei zu lesen. Ich versuche, das Schema ...

TOP-Veröffentlichungen

2 die antwort

Wie man ein Spark 2.0 Projekt mit externen Jars und Maven kompiliert / paketiert

Seit Version 2.0 wird Apache Spark mit einem Ordner "jars" mit JAR-Dateien gebündelt. Offensichtlich wird Maven all diese Gläser bei der Ausgabe herunterladen: mvn -e packageDenn um eine Bewerbung mit @ einzureich spark-submit --class DataFetch ...

4 die antwort

Scala Random String

Hoffentlich geht es dir gut, ich habe gerade mit der Scala-Grundprogrammierung begonnen, ich möchte mit foreach eine String-Variable generieren oder etwas anderes, von dem du denkst, dass es die beste Methode ist. Wie verwende ...

2 die antwort

Eine Liste in Scala mischen [duplizieren]

Diese Frage hat hier bereits eine Antwort: Scala ListBuffer (oder gleichwertiges) shuffle [/questions/11040399/scala-listbuffer-or-equivalent-shuffle] 1 AntwortIch habe eine Frage an für die Shuffle-Liste in Scala mitscala.util.Random. Zum ...

2 die antwort

Value join ist kein Mitglied von org.apache.spark.rdd.RDD [(Long, T)]

Diese Funktion scheint für meine IDE gültig zu sein: def zip[T, U](rdd1:RDD[T], rdd2:RDD[U]) : RDD[(T,U)] = { rdd1 .zipWithIndex .map(_.swap) .join( rdd2 .zipWithIndex .map(_.swap)) .values }Aber wenn ich kompiliere, erhalte ich: value join ist ...

12 die antwort

Könnten Sie einen Link zu einer URL-Parsing-Implementierung freigeben?

Soweit ich weiß, besteht eine URL aus den folgenden Feldern: Protocol (http, https, ftp usw.)NutzernamBenutzer-PassworHostadresse (eine IP-Adresse oder ein DNS-FQDN)Port (was impliziert werden kann)Pfad zu einem Dokument im Server dokumentiert ...

2 die antwort

Verschachtelte Elemente in Scala Spark Dataframe umbenennen

Ich habe einen Spark Scala-Datenrahmen mit einer verschachtelten Struktur: |-- _History: struct (nullable = true) | |-- Article: array (nullable = true) | | |-- element: struct (containsNull = true) | | | |-- Id: string (nullable = true) | | | ...

4 die antwort

Spark 2.0 fehlende Funken impliziert

Mit Spark 2.0 sehe ich, dass es möglich ist, einen Datenrahmen von Zeilen in einen Datenrahmen von Fallklassen umzuwandeln. Wenn ich das versuche, werde ich mit einer Nachricht begrüßt, die besagt, dass ich @ importieren solspark.implicits._. ...