Suchergebnisse für Anfrage "python"
Python: Maximale Rekursionstiefe beim Aufrufen eines Python-Objekts beim Aufrufen der Kopierfunktion überschritten
Ich habe ein klassePartike hat einige Parameter und Attribute, wie Sie unten sehen können. Wenn es aber zum Funktionseinsteller für die Position kommt und die copy () - Funktion ausführt, erhalte ich die Fehlermeldung:RuntimeError: Maximale ...
Starten Sie HiveThriftServer programmgesteuert in Python
n der Spark-Shell (Scala) importieren wir org.apache.spark.sql.hive.thriftserver._, um Hive Thrift Server programmgesteuert für einen bestimmten Hive-Kontext als HiveThriftServer2.startWithContext (hiveContext) zu starten und eine registrierte ...
Django Rest Framework verschachtelte Felder mit mehreren Modellen
Dies ist Django und Django Rest Framework. Ich habe 2 Modelle: Benutzer und Telefon. Das 1. Problem: Ich möchte in der Lage sein, Benutzerdaten (E-Mail) und Telefondaten (Telefonnummern) in einer einzigen API-Aktualisierungsantwort zu ...
Django 1.9 JSONField order_by
Ich habe das folgende Django-Modell, das JSONField enthält: class RatebookDataEntry(models.Model): data = JSONField(blank=True, default=[]) last_update = models.DateTimeField(auto_now=True) class Meta: verbose_name_plural = 'Ratebook data ...
Optionale Abhängigkeiten in einer Pip-Anforderungsdatei
Wie kann ich optionale Abhängigkeiten in einer Pip-Anforderungsdatei angeben? Laut dempip Dokumentation [http://pip.openplans.org/#requirements-files] das ist möglich, aber die Dokumentation erklärt nicht, wie es geht und ich kann keine Beispiele ...
Python tarfile Fortschrittsausgabe?
Ich verwende den folgenden Code, um eine tar-Datei zu extrahieren: import tarfile tar = tarfile.open("sample.tar.gz") tar.extractall() tar.close() Ich möchte jedoch den Fortschritt im Auge behalten, in welcher Form Dateien gerade extrahiert ...
Summenoperation auf PySpark DataFrame, die TypeError ausgibt, wenn der Typ in Ordnung ist
Ich habe einen solchen DataFrame in PySpark (dies ist das Ergebnis einer Einstellung (3), der DataFrame ist sehr groß): sc = SparkContext() df = [Row(owner=u'u1', a_d=0.1), Row(owner=u'u2', a_d=0.0), Row(owner=u'u1', a_d=0.3)]das GleicheInhabe ...
Group DataFrame in 5-Minuten-Intervallen
Wie bekomme ich mit Python / Pandas nur die 5-Minuten-Daten aus dieser CSV? Für jedes 5-Minuten-Intervall versuche ich, DATUM, ZEIT, ÖFFNEN, HOCH, NIEDRIG, SCHLIESSEN und LAUTSTÄRKE für dieses 5-Minuten-Intervall zu ermitteln. DATE TIME OPEN ...
Tensorflow-Diagramme aus Python für die Verwendung in C ++ exportieren
Wie genau sollten Python-Modelle zur Verwendung in c ++ exportiert werden? Ich versuche, etwas Ähnliches wie dieses Tutorial zu ...
So lokalisieren Sie den Inhalt einer Django-Anwendung
Hey, ich arbeite gerade an einer Django-App für mein Studium und bin zum Ende von 18n gekommen. Die Lokalisierung der Site selbst war sehr einfach, aber jetzt muss ich den Benutzern erlauben, den dynamischen Inhalt der Anwendung zu übersetzen. ...