Suchergebnisse für Anfrage "scala"

8 die antwort

ie kann ich in Scala eine Java-Klasse mit mehreren Konstruktoren unterteile

Angenommen, ich habe eine Java-Klasse mit mehreren Konstruktoren: class Base { Base(int arg1) {...}; Base(String arg2) {...}; Base(double arg3) {...}; }Wie kann ich es in Scala erweitern und trotzdem Zugriff auf alle drei Konstruktoren von Base ...

2 die antwort

Spark Streaming auf EC2: Ausnahme im Thread "main" java.lang.ExceptionInInitializerError

Ich versuche, spark-submit für eine von mir erstellte JAR-Datei auszuführen. Wenn ich es lokal auf meinem Computer ausführe, funktioniert es ordnungsgemäß, aber wenn es auf Amazon EC2 bereitgestellt wird, wird der folgende ...

2 die antwort

Was versucht Scala mir zu sagen und wie kann ich das beheben? [erforderlich: java.util.List [? 0] wobei? 0]

Ich bin gerade dabei, Scala zu lernen, und heute war ich zuversichtlich, es einem unserer Projekte vorstellen zu können. Die Anwendung erledigt viele JPA / Hibernate-Aufgaben und ich habe damit begonnen, eine der Java-Schnittstellen in Scala zu ...

TOP-Veröffentlichungen

6 die antwort

Map kann in Scala nicht serialisiert werden?

Ich bin neu in Scala. Wie kommt es, dass die "Map" -Funktion nicht serialisierbar ist? Wie kann man es serialisierbar machen? Zum Beispiel, wenn mein Code wie folgt lautet: val data = sc.parallelize(List(1,4,3,5,2,3,5)) def myfunc(iter: ...

2 die antwort

Spark NullPointerException mit saveAsTextFile

Ich erhalte eine NPE, wenn ich versuche, eine RDD zusammenzuführen und zu speichern. Code arbeitet lokal,un funktioniert auf dem Cluster in der Scala-Shell, löst jedoch den Fehler aus, wenn es als Job an den Cluster gesendet wird. Ich habe ...

4 die antwort

Flattening Rows in Spark

Ich teste mit Scala auf Funken. Wir lesen normalerweise JSON-Dateien, die wie im folgenden Beispiel bearbeitet werden müssen: test.json: {"a":1,"b":[2,3]} val test = sqlContext.read.json("test.json")Wie kann ich es in das folgende Format ...

4 die antwort

Können wir ein Array von By-Name-Parameter-Funktionen haben?

n Scala haben wir einen By-Name-Parameter, in den wir schreiben können def foo[T](f: => T):T = { f // invokes f } // use as: foo(println("hello"))Ich möchte jetzt dasselbe mit einer Reihe von Methoden machen, das heißt, ich möchte sie verwenden ...

6 die antwort

Wie verwende ich Scala und Python in einem Spark-Projekt?

Ist das möglich @ zu leitSpark RDD zu Python? Weil ich eine Python-Bibliothek benötige, um meine Daten zu berechnen, aber mein Haupt-Spark-Projekt basiert auf Scala. Gibt es eine Möglichkeit, beide zu mischen oder Python auf denselben ...

6 die antwort

Konvertieren von RDD [org.apache.spark.sql.Row] in RDD [org.apache.spark.mllib.linalg.Vector]

Ich bin relativ neu bei Spark und Scala. Ich beginne mit dem folgenden Datenrahmen (einzelne Spalte aus einem dichten Doppelvektor): scala> val scaledDataOnly_pruned = scaledDataOnly.select("features") scaledDataOnly_pruned: ...

22 die antwort

Scala double definition (2 Methoden haben den gleichen Löschtyp)

Ich habe dies in Scala geschrieben und es wird nicht kompiliert: class TestDoubleDef{ def foo(p:List[String]) = {} def foo(p:List[Int]) = {} }der Compiler benachrichtigen: [error] double definition: [error] method foo:(List[String])Unit and ...