A floresta aleatória em R tem uma limitação do tamanho dos dados de treinamento?

Eu estou treinando randomforest em meus dados de treinamento que tem 114.954 linhas e 135 colunas (preditores). E estou recebendo o seguinte erro.

model <- randomForest(u_b_stars~. ,data=traindata,importance=TRUE,do.trace=100, keep.forest=TRUE, mtry=30)

Error: cannot allocate vector of size 877.0 Mb
In addition: Warning messages:
1: In randomForest.default(m, y, ...) :
The response has five or fewer unique values.  Are you sure you want to do regression?
2: In matrix(double(nrnodes * nt), ncol = nt) :
Reached total allocation of 3958Mb: see help(memory.size)
3: In matrix(double(nrnodes * nt), ncol = nt) :
Reached total allocation of 3958Mb: see help(memory.size)
4: In matrix(double(nrnodes * nt), ncol = nt) :
Reached total allocation of 3958Mb: see help(memory.size) 
5: In matrix(double(nrnodes * nt), ncol = nt) :
Reached total allocation of 3958Mb: see help(memory.size)

Eu quero saber o que eu faço para evitar esse erro? Devo treiná-lo com menos dados? Mas isso não será bom, claro. Alguém pode sugerir uma alternativa na qual eu não precise obter menos dados dos dados de treinamento. Eu quero usar dados completos de treinamento.

questionAnswers(2)

yourAnswerToTheQuestion