Suchergebnisse für Anfrage "scala"
Einige Fragen zum Unterschied zwischen Call-by-Name- und 0-Arity-Funktionen
Es gibt hier einige Diskussionen darüber, aber ich habe einige spezifische Fragen, auf die ich keine Antwort finden konnte. Also, mit Call-by-Name meine ich=>T Typ, und mit 0-Arity-Funktion meine ich() => T Ich verstehe (glaube ich) den ...
Wie fasse ich jede Spalte eines Scala-Arrays zusammen?
Wenn ich in Scala ein Array von Arrays (ähnlich einer Matrix) habe, wie kann ich dann die einzelnen Spalten der Matrix effizient zusammenfassen? Zum Beispiel, wenn mein Array von Array wie folgt ist: val arr = Array(Array(1, 100, ...), Array(2, ...
Spark mehrere Kontexte
Zusamenfassen : EC2 Cluster: 1 Master 3 Slaves Spark Version: 1.3.1 Ich möchte die Option @ verwend spark.driver.allowMultipleContexts, ein Kontext lokal (nur Master) und ein Cluster (Master und Slaves). Ich erhalte diesen Stacktrace-Fehler ...
Was macht Dollarzeichen in Scala
Wenn ich Funken Quellcode gelesen habeHie [https://github.com/apache/spark/blob/098be27ad53c485ee2fc7f5871c47f899020e87b/mllib/src/main/scala/org/apache/spark/ml/classification/MultilayerPerceptronClassifier.scala#L66] , Ich sah Code ...
So komprimieren Sie zwei (oder mehr) DataFrames in Spark
Ich habe zweiDataFrame a undb. a ist wi Column 1 | Column 2 abc | 123 cde | 23b ist wi Column 1 1 2Ich möchte @ za undb (oder noch mehr) DataFrames, die ungefähr so aussehen: Column 1 | Column 2 | Column 3 abc | 123 | 1 cde | 23 | 2Wie kann ...
Scala: gleiten (N, N) vs gruppiert (N)
Ich habe in letzter Zeit festgestellt, dass ich Schieberegler (n, n) verwende, wenn ich Sammlungen in Gruppen von n Elementen durchlaufen muss, ohne sie erneut zu verarbeiten. Ich habe mich gefragt, ob es korrekter wäre, diese Sammlungen mit ...
wie man einen Quarzjob mit scala @ einpla
Ich versuche, das einfachste Beispiel für einen Quarzjob in Scala zu finden. configure () wird einmal ausgeführt, wenn mein Modul geladen wird. lazy val quartz = StdSchedulerFactory.getDefaultScheduler override def configure() = { val Job = ...
Kann ich eine HDFS- (oder lokale) Nur-Text-Datei aus einem Spark-Programm schreiben, nicht aus einem RDD?
Ich habe ein Spark-Programm (in Scala) und einSparkContext. Ich schreibe einige Dateien mitRDD 'ssaveAsTextFile. Auf meinem lokalen Computer kann ich einen lokalen Dateipfad verwenden und er funktioniert mit dem lokalen Dateisystem. In meinem ...
Spark partitionBy viel langsamer als ohne
Ich habe das Schreiben getestet mit: df.write.partitionBy("id", "name") .mode(SaveMode.Append) .parquet(filePath) Allerdings, wenn ich die Partitionierung weglasse: df.write .mode(SaveMode.Append) .parquet(filePath)It führt 100x (!) ...
Play Framework 2.4 Injizierte Variable in Scala-Vorlage verwenden
Ich möchte einige Daten aus der Datenbank in der Menüleiste meiner Webseite anzeigen. Um die Daten zu erhalten, habe ich ein Data-Access-Objekt (DAO), das normalerweise mit Guice-Injection erstellt wird. Wie kann ich ein solches (injiziertes) ...