Suchergebnisse für Anfrage "user-defined-functions"
Effiziente ISNUMERIC () Ersetzungen auf SQL Server?
So habe ich gerade 5 Stunden damit verbracht, ein Problem zu beheben, das sich nicht nur als Ursache für das @ herausstelltold ...
Benutzercode sicher ausführen
Ich möchte eine KI-Umgebung erstellen, in der Benutzer ihren eigenen Code für die KI einreichen und sie am Wettbewerb teilnehmen lassen können. Die Sprache kann alles Mögliche sein, aber etwas Leichtes, wie JavaScript oder Python, ...
Wie bekomme ich die 5 besten Datensätze in Cassandra 2.2?
Ich brauche Hilfe. Ich habe eine Abfrage, bei der die Top-5-Datensätze nach Datum (nicht nach Datum und Uhrzeit) und Summe der Beträge gruppiert werden. Ich habe folgendes geschrieben, aber es gibt alle Datensätze zurück, nicht nur die Top ...
Wie definiere und verwende ich eine benutzerdefinierte Aggregatfunktion in Spark SQL?
Ich weiß, wie man eine UDF in Spark SQL schreibt: def belowThreshold(power: Int): Boolean = { return power < -40 } sqlContext.udf.register("belowThreshold", belowThreshold _)Kann ich etwas Ähnliches tun, um eine Aggregatfunktion zu definieren? ...
SparkSQL: Wie gehe ich mit Nullwerten in einer benutzerdefinierten Funktion um?
Gegeben Tabelle 1 mit einer Spalte "x" vom Typ String. Ich möchte Tabelle 2 mit einer Spalte "y" erstellen, die eine ganzzahlige Darstellung der in "x" angegebenen Datumszeichenfolgen ist. Wesentlic soll @ behaltnull Werte in Spalte ...
Zurückgeben mehrerer Arrays aus einer benutzerdefinierten Aggregatfunktion (UDAF) in Apache Spark SQL
Ich versuche, eine benutzerdefinierte Aggregatfunktion (UDAF) in Java mit Apache Spark SQL zu erstellen, die nach Abschluss mehrere Arrays zurückgibt. Ich habe online gesucht und kann keine Beispiele oder Vorschläge dazu finden. Ich kann ein ...
Wie konvertiere ich eine WrappedArray-Spalte im Spark-Datenframe in Strings?
Ich versuche, eine Spalte, die Array [String] enthält, in String zu konvertieren, aber ich erhalte durchweg diesen Fehler org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 78.0 failed 4 times, most recent ...
Stack Overflow beim Verarbeiten mehrerer Spalten mit einer UDF
Ich habe einDataFrame mit vielen Spalten vonstr type, und ich möchte eine Funktion auf alle diese Spalten anwenden, ohne deren Namen umzubenennen oder weitere Spalten hinzuzufügen. Ich habe versucht, ein @ zu verwendefor-in Schleife wird ...
Anwenden der Funktion auf Spark Dataframe Column
Aus R kommend bin ich es gewohnt, Operationen an Spalten einfach auszuführen. Gibt es eine einfache Möglichkeit, diese Funktion zu nutzen, die ich in scala @ geschrieben hab def round_tenths_place( un_rounded:Double ) : Double = { val rounded ...
Apache Spark - Weisen Sie das Ergebnis der UDF mehreren Datenrahmenspalten zu.
Ich verwende pyspark, lade eine große csv-Datei in einen Datenrahmen mit spark-csv und muss als Vorverarbeitungsschritt eine Reihe von Operationen auf die in einer der Spalten verfügbaren Daten anwenden (die eine JSON-Zeichenfolge enthalten) ). ...