Suchergebnisse für Anfrage "scala"

12 die antwort

"With" -Anweisung entspricht für Scala?

Idle grübelt vielleicht über einen Scala-Lerner nach, aber ... in meinen Bastelarbeiten habe ich Folgendes geschrieben: ( n.child.size > 0 ) && ( n.child.filter( ! _.isInstanceOf[Text] ).size == 0 ) ('n' ist ein scala.xml.Node, aber das ist ...

6 die antwort

Temporäre Tabellen aus Apache SQL Spark entfernen

Ich haberegistertemptable imApache Spark usingZeppelin unten: val hvacText = sc.textFile("...") case class Hvac(date: String, time: String, targettemp: Integer, actualtemp: Integer, buildingID: String) val hvac = hvacText.map(s => ...

4 die antwort

Spark: Sendung von Jackson ObjectMapper

Ich habe eine Spark-Anwendung, die Zeilen aus Dateien liest und versucht, sie mit Jackson zu deserialisieren. Um diesen Code zum Laufen zu bringen, musste ich den ObjectMapper innerhalb der Map-Operation definieren (ansonsten habe ich ...

TOP-Veröffentlichungen

2 die antwort

Reading Huge MongoDB Sammlung von Spark mit Hilfe von Worker

ch möchte eine riesige MongoDB-Sammlung von Spark lesen, eine permanente RDD erstellen und weitere Datenanalysen durchführe Kann ich auf irgendeine Weise die Daten von MongoDB schneller lesen? Habe es mit dem Ansatz von MongoDB Java + Casbah @ ...

4 die antwort

Slick 3 wiederverwendbares generisches Repository

Ich habe Probleme damit, Slicks TableQuery allgemein zu verwenden. Beobachten Sie die normale Situation: class AccountRepository { override protected val dbConfig = DatabaseConfigProvider.get[JdbcProfile](Play.current) val accounts ...

4 die antwort

Wie partitioniere ich mit Spark?

Gegeben, dass die HashPartitioner-Dokumentation sagt: [HashPartitioner] implementiert eine Hash-basierte Partitionierung mit Javas Object.hashCode. Sag ich möchte partitionierenDeviceData von seinerkind. case class DeviceData(kind: String, ...

4 die antwort

Lesen von Cassandra mit Spark Streaming

Ich habe ein Problem, wenn ich Spark-Streaming verwende, um von Cassandra ...

2 die antwort

Spark Leistung für Scala vs Python

Ich bevorzuge Python gegenüber Scala. Da Spark jedoch ursprünglich in Scala geschrieben wurde, hatte ich aus offensichtlichen Gründen damit gerechnet, dass mein Code in Scala schneller ausgeführt wird als in der Python-Version. Mit dieser ...

8 die antwort

Geburtsdatum in Spark Dataframe API in Alter umwandeln

Das scheint einfach, aber ich konnte die Antwort nicht finden. Ich versuche, eine Spalte mit dem Geburtsdatum im folgenden Datumsformat in das Datumsformat in der Spark Dataframe-API zu konvertieren und dann das entsprechende Alter zu berechnen. ...

10 die antwort

Welchen ThreadPool in Java soll ich verwenden?

Es gibt eine Menge Aufgaben. Jede Aufgabe gehört zu einer einzelnen Gruppe. Die Anforderung ist, dass jede Gruppe von Aufgaben wie in einem einzelnen Thread seriell ausgeführt wird und der Durchsatz in einer Umgebung mit mehreren Kernen (oder ...