Arbeiten Sie interaktiv mit Listenobjekten, die sehr viel Speicher beanspruchen

Ich habe vor kurzem die Wunder der Pakete entdecktbigmemory, ff undfilehash sehr große Matrizen zu behandeln.

Wie kann ich mit sehr großen (300MB ++) Listen umgehen? In meiner Arbeit arbeite ich jeden Tag den ganzen Tag mit diesen Listen. Ich kann mit Pflasterlösung arbeitensave() & load() Hacks überall, aber ich würde lieber einbigmemory-ähnliche Lösung. So etwas wie einbigmemory bigmatrix wäre ideal, wenn ich damit im grunde identisch arbeite mit einemmatrix außer es nimmt ungefähr 660 Bytes in meinem RAM ein.

Diese Listen sind meistens>1000 Längenlisten vonlm() Objekte (oder ähnliche Regressionsobjekte). Zum Beispiel,

Y <- rnorm(1000) ; X <- rnorm(1000)
A <- lapply(1:6000, function(i) lm(Y~X))
B <- lapply(1:6000, function(i) lm(Y~X))
C <- lapply(1:6000, function(i) lm(Y~X))
D <- lapply(1:6000, function(i) lm(Y~X))
E <- lapply(1:6000, function(i) lm(Y~X))
F <- lapply(1:6000, function(i) lm(Y~X))

In meinem Projekt werde ich habenA,B,C,D,E,F-Listen (und noch mehr), mit denen ich interaktiv arbeiten muss.

Wenn dies gigantische Matrizen wären, gäbe es eine Tonne Unterstützung. Ich habe mich gefragt, ob es in einem Paket für große Unternehmen eine ähnliche Unterstützung gibtlist Objekte.

Antworten auf die Frage(1)

Ihre Antwort auf die Frage