Suchergebnisse für Anfrage "user-defined-functions"

22 die antwort

Effiziente ISNUMERIC () Ersetzungen auf SQL Server?

So habe ich gerade 5 Stunden damit verbracht, ein Problem zu beheben, das sich nicht nur als Ursache für das @ herausstelltold ...

2 die antwort

Benutzercode sicher ausführen

Ich möchte eine KI-Umgebung erstellen, in der Benutzer ihren eigenen Code für die KI einreichen und sie am Wettbewerb teilnehmen lassen können. Die Sprache kann alles Mögliche sein, aber etwas Leichtes, wie JavaScript oder Python, ...

2 die antwort

Wie bekomme ich die 5 besten Datensätze in Cassandra 2.2?

Ich brauche Hilfe. Ich habe eine Abfrage, bei der die Top-5-Datensätze nach Datum (nicht nach Datum und Uhrzeit) und Summe der Beträge gruppiert werden. Ich habe folgendes geschrieben, aber es gibt alle Datensätze zurück, nicht nur die Top ...

TOP-Veröffentlichungen

2 die antwort

Wie definiere und verwende ich eine benutzerdefinierte Aggregatfunktion in Spark SQL?

Ich weiß, wie man eine UDF in Spark SQL schreibt: def belowThreshold(power: Int): Boolean = { return power < -40 } sqlContext.udf.register("belowThreshold", belowThreshold _)Kann ich etwas Ähnliches tun, um eine Aggregatfunktion zu definieren? ...

6 die antwort

SparkSQL: Wie gehe ich mit Nullwerten in einer benutzerdefinierten Funktion um?

Gegeben Tabelle 1 mit einer Spalte "x" vom Typ String. Ich möchte Tabelle 2 mit einer Spalte "y" erstellen, die eine ganzzahlige Darstellung der in "x" angegebenen Datumszeichenfolgen ist. Wesentlic soll @ behaltnull Werte in Spalte ...

2 die antwort

Zurückgeben mehrerer Arrays aus einer benutzerdefinierten Aggregatfunktion (UDAF) in Apache Spark SQL

Ich versuche, eine benutzerdefinierte Aggregatfunktion (UDAF) in Java mit Apache Spark SQL zu erstellen, die nach Abschluss mehrere Arrays zurückgibt. Ich habe online gesucht und kann keine Beispiele oder Vorschläge dazu finden. Ich kann ein ...

4 die antwort

Wie konvertiere ich eine WrappedArray-Spalte im Spark-Datenframe in Strings?

Ich versuche, eine Spalte, die Array [String] enthält, in String zu konvertieren, aber ich erhalte durchweg diesen Fehler org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 78.0 failed 4 times, most recent ...

2 die antwort

Stack Overflow beim Verarbeiten mehrerer Spalten mit einer UDF

Ich habe einDataFrame mit vielen Spalten vonstr type, und ich möchte eine Funktion auf alle diese Spalten anwenden, ohne deren Namen umzubenennen oder weitere Spalten hinzuzufügen. Ich habe versucht, ein @ zu verwendefor-in Schleife wird ...

2 die antwort

Anwenden der Funktion auf Spark Dataframe Column

Aus R kommend bin ich es gewohnt, Operationen an Spalten einfach auszuführen. Gibt es eine einfache Möglichkeit, diese Funktion zu nutzen, die ich in scala @ geschrieben hab def round_tenths_place( un_rounded:Double ) : Double = { val rounded ...

2 die antwort

Apache Spark - Weisen Sie das Ergebnis der UDF mehreren Datenrahmenspalten zu.

Ich verwende pyspark, lade eine große csv-Datei in einen Datenrahmen mit spark-csv und muss als Vorverarbeitungsschritt eine Reihe von Operationen auf die in einer der Spalten verfügbaren Daten anwenden (die eine JSON-Zeichenfolge enthalten) ). ...