Empfohlenes Paket für die Verarbeitung sehr großer Datenmengen und maschinelles Lernen in R
Es scheint, als ob R wirklich für die Verarbeitung von Datasets entwickelt wurde, die vollständig in den Speicher geladen werden können. Welche R-Pakete werden für die Signalverarbeitung und das maschinelle Lernen bei sehr großen Datenmengen empfohlen, die nicht in den Speicher gezogen werden können?
Wenn R einfach der falsche Weg ist, bin ich offen für andere robuste, kostenlose Vorschläge (z. B. scipy, wenn es eine gute Möglichkeit gibt, mit sehr großen Datensätzen umzugehen).