Suchergebnisse für Anfrage "scala"

2 die antwort

Einige Fragen zum Unterschied zwischen Call-by-Name- und 0-Arity-Funktionen

Es gibt hier einige Diskussionen darüber, aber ich habe einige spezifische Fragen, auf die ich keine Antwort finden konnte. Also, mit Call-by-Name meine ich=>T Typ, und mit 0-Arity-Funktion meine ich() => T Ich verstehe (glaube ich) den ...

8 die antwort

Wie fasse ich jede Spalte eines Scala-Arrays zusammen?

Wenn ich in Scala ein Array von Arrays (ähnlich einer Matrix) habe, wie kann ich dann die einzelnen Spalten der Matrix effizient zusammenfassen? Zum Beispiel, wenn mein Array von Array wie folgt ist: val arr = Array(Array(1, 100, ...), Array(2, ...

8 die antwort

Spark mehrere Kontexte

Zusamenfassen : EC2 Cluster: 1 Master 3 Slaves Spark Version: 1.3.1 Ich möchte die Option @ verwend spark.driver.allowMultipleContexts, ein Kontext lokal (nur Master) und ein Cluster (Master und Slaves). Ich erhalte diesen Stacktrace-Fehler ...

TOP-Veröffentlichungen

2 die antwort

Was macht Dollarzeichen in Scala

Wenn ich Funken Quellcode gelesen habeHie [https://github.com/apache/spark/blob/098be27ad53c485ee2fc7f5871c47f899020e87b/mllib/src/main/scala/org/apache/spark/ml/classification/MultilayerPerceptronClassifier.scala#L66] , Ich sah Code ...

8 die antwort

So komprimieren Sie zwei (oder mehr) DataFrames in Spark

Ich habe zweiDataFrame a undb. a ist wi Column 1 | Column 2 abc | 123 cde | 23b ist wi Column 1 1 2Ich möchte @ za undb (oder noch mehr) DataFrames, die ungefähr so aussehen: Column 1 | Column 2 | Column 3 abc | 123 | 1 cde | 23 | 2Wie kann ...

2 die antwort

Scala: gleiten (N, N) vs gruppiert (N)

Ich habe in letzter Zeit festgestellt, dass ich Schieberegler (n, n) verwende, wenn ich Sammlungen in Gruppen von n Elementen durchlaufen muss, ohne sie erneut zu verarbeiten. Ich habe mich gefragt, ob es korrekter wäre, diese Sammlungen mit ...

2 die antwort

wie man einen Quarzjob mit scala @ einpla

Ich versuche, das einfachste Beispiel für einen Quarzjob in Scala zu finden. configure () wird einmal ausgeführt, wenn mein Modul geladen wird. lazy val quartz = StdSchedulerFactory.getDefaultScheduler override def configure() = { val Job = ...

8 die antwort

Kann ich eine HDFS- (oder lokale) Nur-Text-Datei aus einem Spark-Programm schreiben, nicht aus einem RDD?

Ich habe ein Spark-Programm (in Scala) und einSparkContext. Ich schreibe einige Dateien mitRDD 'ssaveAsTextFile. Auf meinem lokalen Computer kann ich einen lokalen Dateipfad verwenden und er funktioniert mit dem lokalen Dateisystem. In meinem ...

2 die antwort

Spark partitionBy viel langsamer als ohne

Ich habe das Schreiben getestet mit: df.write.partitionBy("id", "name") .mode(SaveMode.Append) .parquet(filePath) Allerdings, wenn ich die Partitionierung weglasse: df.write .mode(SaveMode.Append) .parquet(filePath)It führt 100x (!) ...

2 die antwort

Play Framework 2.4 Injizierte Variable in Scala-Vorlage verwenden

Ich möchte einige Daten aus der Datenbank in der Menüleiste meiner Webseite anzeigen. Um die Daten zu erhalten, habe ich ein Data-Access-Objekt (DAO), das normalerweise mit Guice-Injection erstellt wird. Wie kann ich ein solches (injiziertes) ...