Suchergebnisse für Anfrage "scala"
"With" -Anweisung entspricht für Scala?
Idle grübelt vielleicht über einen Scala-Lerner nach, aber ... in meinen Bastelarbeiten habe ich Folgendes geschrieben: ( n.child.size > 0 ) && ( n.child.filter( ! _.isInstanceOf[Text] ).size == 0 ) ('n' ist ein scala.xml.Node, aber das ist ...
Temporäre Tabellen aus Apache SQL Spark entfernen
Ich haberegistertemptable imApache Spark usingZeppelin unten: val hvacText = sc.textFile("...") case class Hvac(date: String, time: String, targettemp: Integer, actualtemp: Integer, buildingID: String) val hvac = hvacText.map(s => ...
Spark: Sendung von Jackson ObjectMapper
Ich habe eine Spark-Anwendung, die Zeilen aus Dateien liest und versucht, sie mit Jackson zu deserialisieren. Um diesen Code zum Laufen zu bringen, musste ich den ObjectMapper innerhalb der Map-Operation definieren (ansonsten habe ich ...
Reading Huge MongoDB Sammlung von Spark mit Hilfe von Worker
ch möchte eine riesige MongoDB-Sammlung von Spark lesen, eine permanente RDD erstellen und weitere Datenanalysen durchführe Kann ich auf irgendeine Weise die Daten von MongoDB schneller lesen? Habe es mit dem Ansatz von MongoDB Java + Casbah @ ...
Slick 3 wiederverwendbares generisches Repository
Ich habe Probleme damit, Slicks TableQuery allgemein zu verwenden. Beobachten Sie die normale Situation: class AccountRepository { override protected val dbConfig = DatabaseConfigProvider.get[JdbcProfile](Play.current) val accounts ...
Wie partitioniere ich mit Spark?
Gegeben, dass die HashPartitioner-Dokumentation sagt: [HashPartitioner] implementiert eine Hash-basierte Partitionierung mit Javas Object.hashCode. Sag ich möchte partitionierenDeviceData von seinerkind. case class DeviceData(kind: String, ...
Lesen von Cassandra mit Spark Streaming
Ich habe ein Problem, wenn ich Spark-Streaming verwende, um von Cassandra ...
Spark Leistung für Scala vs Python
Ich bevorzuge Python gegenüber Scala. Da Spark jedoch ursprünglich in Scala geschrieben wurde, hatte ich aus offensichtlichen Gründen damit gerechnet, dass mein Code in Scala schneller ausgeführt wird als in der Python-Version. Mit dieser ...
Geburtsdatum in Spark Dataframe API in Alter umwandeln
Das scheint einfach, aber ich konnte die Antwort nicht finden. Ich versuche, eine Spalte mit dem Geburtsdatum im folgenden Datumsformat in das Datumsformat in der Spark Dataframe-API zu konvertieren und dann das entsprechende Alter zu berechnen. ...
Welchen ThreadPool in Java soll ich verwenden?
Es gibt eine Menge Aufgaben. Jede Aufgabe gehört zu einer einzelnen Gruppe. Die Anforderung ist, dass jede Gruppe von Aufgaben wie in einem einzelnen Thread seriell ausgeführt wird und der Durchsatz in einer Umgebung mit mehreren Kernen (oder ...