Trabaja interactivamente con objetos de lista que ocupan una memoria masiva

Recientemente he descubierto las maravillas de los paquetes.bigmemory, ff yfilehash Manejar matrices muy grandes.

¿Cómo puedo manejar listas muy grandes (300MB ++)? En mi trabajo trabajo con estas listas todo el día, todos los días. Puedo hacer una solución de curita consave() & load() hacks en todas partes pero preferiría unbigmemory-como solución Algo como unbigmemory bigmatrix sería ideal, donde trabajo con él básicamente de forma idéntica a unamatrix excepto que ocupa algo como 660 bytes en mi memoria RAM.

Estas listas son en su mayoría>1000 listas de longitud delm() Objetos (u objetos de regresión similares). Por ejemplo,

Y <- rnorm(1000) ; X <- rnorm(1000)
A <- lapply(1:6000, function(i) lm(Y~X))
B <- lapply(1:6000, function(i) lm(Y~X))
C <- lapply(1:6000, function(i) lm(Y~X))
D <- lapply(1:6000, function(i) lm(Y~X))
E <- lapply(1:6000, function(i) lm(Y~X))
F <- lapply(1:6000, function(i) lm(Y~X))

En mi proyecto tendréA,B,C,D,E,F-lista de listas (e incluso más que esto) con las que tengo que trabajar de forma interactiva.

Si estas fueran matrices gigantescas, hay un montón de apoyo. Me preguntaba si había algún soporte similar en algún paquete para grandeslist objetos.

Respuestas a la pregunta(1)

Su respuesta a la pregunta