Suchergebnisse für Anfrage "scala"
ie kann ich in Scala eine Java-Klasse mit mehreren Konstruktoren unterteile
Angenommen, ich habe eine Java-Klasse mit mehreren Konstruktoren: class Base { Base(int arg1) {...}; Base(String arg2) {...}; Base(double arg3) {...}; }Wie kann ich es in Scala erweitern und trotzdem Zugriff auf alle drei Konstruktoren von Base ...
Spark Streaming auf EC2: Ausnahme im Thread "main" java.lang.ExceptionInInitializerError
Ich versuche, spark-submit für eine von mir erstellte JAR-Datei auszuführen. Wenn ich es lokal auf meinem Computer ausführe, funktioniert es ordnungsgemäß, aber wenn es auf Amazon EC2 bereitgestellt wird, wird der folgende ...
Was versucht Scala mir zu sagen und wie kann ich das beheben? [erforderlich: java.util.List [? 0] wobei? 0]
Ich bin gerade dabei, Scala zu lernen, und heute war ich zuversichtlich, es einem unserer Projekte vorstellen zu können. Die Anwendung erledigt viele JPA / Hibernate-Aufgaben und ich habe damit begonnen, eine der Java-Schnittstellen in Scala zu ...
Map kann in Scala nicht serialisiert werden?
Ich bin neu in Scala. Wie kommt es, dass die "Map" -Funktion nicht serialisierbar ist? Wie kann man es serialisierbar machen? Zum Beispiel, wenn mein Code wie folgt lautet: val data = sc.parallelize(List(1,4,3,5,2,3,5)) def myfunc(iter: ...
Spark NullPointerException mit saveAsTextFile
Ich erhalte eine NPE, wenn ich versuche, eine RDD zusammenzuführen und zu speichern. Code arbeitet lokal,un funktioniert auf dem Cluster in der Scala-Shell, löst jedoch den Fehler aus, wenn es als Job an den Cluster gesendet wird. Ich habe ...
Flattening Rows in Spark
Ich teste mit Scala auf Funken. Wir lesen normalerweise JSON-Dateien, die wie im folgenden Beispiel bearbeitet werden müssen: test.json: {"a":1,"b":[2,3]} val test = sqlContext.read.json("test.json")Wie kann ich es in das folgende Format ...
Können wir ein Array von By-Name-Parameter-Funktionen haben?
n Scala haben wir einen By-Name-Parameter, in den wir schreiben können def foo[T](f: => T):T = { f // invokes f } // use as: foo(println("hello"))Ich möchte jetzt dasselbe mit einer Reihe von Methoden machen, das heißt, ich möchte sie verwenden ...
Wie verwende ich Scala und Python in einem Spark-Projekt?
Ist das möglich @ zu leitSpark RDD zu Python? Weil ich eine Python-Bibliothek benötige, um meine Daten zu berechnen, aber mein Haupt-Spark-Projekt basiert auf Scala. Gibt es eine Möglichkeit, beide zu mischen oder Python auf denselben ...
Konvertieren von RDD [org.apache.spark.sql.Row] in RDD [org.apache.spark.mllib.linalg.Vector]
Ich bin relativ neu bei Spark und Scala. Ich beginne mit dem folgenden Datenrahmen (einzelne Spalte aus einem dichten Doppelvektor): scala> val scaledDataOnly_pruned = scaledDataOnly.select("features") scaledDataOnly_pruned: ...
Scala double definition (2 Methoden haben den gleichen Löschtyp)
Ich habe dies in Scala geschrieben und es wird nicht kompiliert: class TestDoubleDef{ def foo(p:List[String]) = {} def foo(p:List[Int]) = {} }der Compiler benachrichtigen: [error] double definition: [error] method foo:(List[String])Unit and ...