В моем случае модель объемом 1,6 ГБ сократилась до ~ 500 МБ с обоими параметрами в управлении ансамблем, а затем сократилась до ~ 300 МБ, также используя параметры в жадном управлении ансамблем.
я тренируюсь только с помощьюglm
все работает, и я даже близко не подхожу к изнурительной памяти. Но когда я бегуtrain(..., method='glm')
У меня кончилась память.
Это потому чтоtrain
хранит много данных для каждой итерации перекрестной проверки (или какова бы ни была процедура trControl)? Я смотрю наtrainControl
и я не могу найти, как предотвратить это ... какие-либо намеки? Я забочусь только о резюме производительности и, возможно, предсказанных ответах.
(Я знаю, что это не связано с хранением данных из каждой итерации поиска по сетке настройки параметров, потому что, я полагаю, нет сетки для GLM.)