Suchergebnisse für Anfrage "dataframe"
Pandas vergleiche nächste Reihe
Ich habe einen Datenrahmen wie diesen d={} d['z']=['Q8','Q8','Q7','Q9','Q9'] d['t']=['10:30','10:31','10:38','10:40','10:41'] d['qty']=[20,20,9,12,12]Ich möchte die erste Reihe mit der zweiten Reihe vergleichen ist die gleiche Menge wie in der ...
Apache Spark, fügen Sie eine berechnete Spalte "CASE WHEN… ELSE…" zu einem vorhandenen DataFrame @ hin
Ich versuche, einem vorhandenen DataFrame mithilfe von Scala-APIs eine berechnete Spalte "CASE WHEN ... ELSE ..." hinzuzufügen. Datenrahmen wird gestartet: color Red Green Blue Gewünschter Datenrahmen (SQL-Syntax: CASE WHEN color == Green THEN ...
ValueError: Kann nicht von einer doppelten Achse mit isin mit pandas @ neu indizier
Ich versuche, Postleitzahlen in verschiedene Dateien zu kürzen, aber ich bekomme immer ValueError: Von einer doppelten Achse kann nicht neu indiziert werden Ich habe andere Dokumentationen zu Stackoverflow durchgelesen, aber ich wollte nicht ...
jeder weiß, wie er die Anzahl aller Elemente einer Spalte in sich selbst ermittelt [duplizieren]
Diese Frage hat hier bereits eine Antwort: Zahlen eines Faktors zu einem Datenrahmen hinzufügen [duplizieren] [/questions/11280277/adding-counts-of-a-factor-to-a-dataframe] 4 Antworten zum Beispiel, das sind meine Daten mydata v 1 1 2 1 3 2 4 2 ...
Spark DataFrames: registerTempTable vs not
Ich habe gestern gerade mit DataFrame angefangen und es gefällt mir bis jetzt sehr gut. Ich verstehe jedoch nichts ... (Siehe das Beispiel unter "Programmgesteuertes Angeben des Schemas" ...
Paste die Elemente von zwei Spalten [duplizieren]
Diese Frage hat hier bereits eine Antwort: Schneller / eleganter Weg, um viele Säulenpaare zu vereinen [/questions/28686848/speedy-elegant-way-to-unite-many-pairs-of-columns] 3 answersIch habe einen data.frame der folgenden Art set.seed(12) d = ...
Voraussetzungen für die Konvertierung von Spark-Datenrahmen in Pandas / R-Datenrahmen
Ich starte Spark auf Hadoops YARN. Wie funktioniert diese Konvertierung? Findet ein collect () vor der Konvertierung statt? Auch muss ich Python und R auf jedem Slave-Knoten installieren, damit die Konvertierung funktioniert? Ich habe Mühe, ...
Wie definiere ich die Partitionierung von DataFrame?
Ich habe begonnen, Spark SQL und DataFrames in Spark 1.4.0 zu verwenden. Ich möchte in Scala einen benutzerdefinierten Partitionierer für DataFrames definieren, sehe aber nicht, wie das geht. Eine der Datentabellen, mit denen ich arbeite, ...
subtrahieren Sie mit python @ zwei Spalten mit unterschiedlichen Datenrahm
Ich habe zwei DataFrames, df1: Lat1 Lon1 tp1 0 34.475000 349.835000 1 1 34.476920 349.862065 0.5 2 34.478833 349.889131 0 3 34.480739 349.916199 3 4 34.482639 349.943268 0 5 34.484532 349.970338 0und df2: Lat2 Lon2 tp2 0 34.475000 349.835000 2 ...
Transformiere ein Counter-Objekt in einen Pandas DataFrame
Ich benutzteCounter auf einer Liste, um diese Variable zu berechnen: final = Counter(event_container)print final ergibt: Counter({'fb_view_listing': 76, 'fb_homescreen': 63, 'rt_view_listing': 50, 'rt_home_start_app': 46, 'fb_view_wishlist': ...