Resultados da pesquisa a pedido "r-caret"

1 a resposta

Como prever em um novo conjunto de dados usando o pacote caretEnsemble no R?

Atualmente estou usandocaretEnsemble pacote em R para combinar vários modelos treinados em circunflexo. Eu tenho a lista dos modelos finais treinados (digamosmodel_list) usandocaretList função do mesmo pacote a seguir. model_list <- caretList( x ...

1 a resposta

Usando variáveis ordinais em rpart e caret sem converter em variáveis categóricas fictícias

Eu estou tentando criar uma árvore de regressão ordinal em R usandorpart, com os preditores sendo principalmente dados ordinais, armazenados comofactor em R. Quando eu criei a árvore usandorpart, Recebo algo como isto: onde os valores são os ...

2 a resposta

Criando uma partição de dados usando circunflexo e data.table

Eu tenho um data.table em R que eu quero usar com pacote de interpolação set.seed(42) trainingRows<-createDataPartition(DT$variable, p=0.75, list=FALSE) head(trainingRows) # view the samples of row numbersNo entanto, não consigo selecionar as ...

2 a resposta

Erro: nrow (x) == n não é TRUE ao usar Train in Caret

Eu tenho um conjunto de treinamento que parece Name Day Area X Y Month Night ATTACK Monday LA -122.41 37.78 8 0 VEHICLE Saturday CHICAGO -1.67 3.15 2 0 MOUSE Monday TAIPEI -12.5 3.1 9 1Name é a variável dependente / resultado. Eu convertiName, ...

1 a resposta

Resultados diferentes com randomForest () e randomForest do sinal de intercalação (método = "rf")

Eu sou iniciante no assunto e só quero garantir que eu entenda completamente o que está fazendo. Nesse sentido, tenho tentado replicar os resultados obtidos de um modelo randomForest () usando a função train () do sinal de intercalação para o ...

3 a resposta

Por que o trem de interpolação está ocupando tanta memória?

Quando treino apenas usandoglm, tudo funciona e eu nem chego perto de esgotar a memória. Mas quando eu corrotrain(..., method='glm'), Estou ficando sem memória. Isso é porquetrain está armazenando muitos dados para cada iteração da ...