Suchergebnisse für Anfrage "dataframe"

2 die antwort

Pandas vergleiche nächste Reihe

Ich habe einen Datenrahmen wie diesen d={} d['z']=['Q8','Q8','Q7','Q9','Q9'] d['t']=['10:30','10:31','10:38','10:40','10:41'] d['qty']=[20,20,9,12,12]Ich möchte die erste Reihe mit der zweiten Reihe vergleichen ist die gleiche Menge wie in der ...

8 die antwort

Apache Spark, fügen Sie eine berechnete Spalte "CASE WHEN… ELSE…" zu einem vorhandenen DataFrame @ hin

Ich versuche, einem vorhandenen DataFrame mithilfe von Scala-APIs eine berechnete Spalte "CASE WHEN ... ELSE ..." hinzuzufügen. Datenrahmen wird gestartet: color Red Green Blue Gewünschter Datenrahmen (SQL-Syntax: CASE WHEN color == Green THEN ...

2 die antwort

ValueError: Kann nicht von einer doppelten Achse mit isin mit pandas @ neu indizier

Ich versuche, Postleitzahlen in verschiedene Dateien zu kürzen, aber ich bekomme immer ValueError: Von einer doppelten Achse kann nicht neu indiziert werden Ich habe andere Dokumentationen zu Stackoverflow durchgelesen, aber ich wollte nicht ...

TOP-Veröffentlichungen

10 die antwort

jeder weiß, wie er die Anzahl aller Elemente einer Spalte in sich selbst ermittelt [duplizieren]

Diese Frage hat hier bereits eine Antwort: Zahlen eines Faktors zu einem Datenrahmen hinzufügen [duplizieren] [/questions/11280277/adding-counts-of-a-factor-to-a-dataframe] 4 Antworten zum Beispiel, das sind meine Daten mydata v 1 1 2 1 3 2 4 2 ...

4 die antwort

Spark DataFrames: registerTempTable vs not

Ich habe gestern gerade mit DataFrame angefangen und es gefällt mir bis jetzt sehr gut. Ich verstehe jedoch nichts ... (Siehe das Beispiel unter "Programmgesteuertes Angeben des Schemas" ...

4 die antwort

Paste die Elemente von zwei Spalten [duplizieren]

Diese Frage hat hier bereits eine Antwort: Schneller / eleganter Weg, um viele Säulenpaare zu vereinen [/questions/28686848/speedy-elegant-way-to-unite-many-pairs-of-columns] 3 answersIch habe einen data.frame der folgenden Art set.seed(12) d = ...

2 die antwort

Voraussetzungen für die Konvertierung von Spark-Datenrahmen in Pandas / R-Datenrahmen

Ich starte Spark auf Hadoops YARN. Wie funktioniert diese Konvertierung? Findet ein collect () vor der Konvertierung statt? Auch muss ich Python und R auf jedem Slave-Knoten installieren, damit die Konvertierung funktioniert? Ich habe Mühe, ...

10 die antwort

Wie definiere ich die Partitionierung von DataFrame?

Ich habe begonnen, Spark SQL und DataFrames in Spark 1.4.0 zu verwenden. Ich möchte in Scala einen benutzerdefinierten Partitionierer für DataFrames definieren, sehe aber nicht, wie das geht. Eine der Datentabellen, mit denen ich arbeite, ...

2 die antwort

subtrahieren Sie mit python @ zwei Spalten mit unterschiedlichen Datenrahm

Ich habe zwei DataFrames, df1: Lat1 Lon1 tp1 0 34.475000 349.835000 1 1 34.476920 349.862065 0.5 2 34.478833 349.889131 0 3 34.480739 349.916199 3 4 34.482639 349.943268 0 5 34.484532 349.970338 0und df2: Lat2 Lon2 tp2 0 34.475000 349.835000 2 ...

4 die antwort

Transformiere ein Counter-Objekt in einen Pandas DataFrame

Ich benutzteCounter auf einer Liste, um diese Variable zu berechnen: final = Counter(event_container)print final ergibt: Counter({'fb_view_listing': 76, 'fb_homescreen': 63, 'rt_view_listing': 50, 'rt_home_start_app': 46, 'fb_view_wishlist': ...