Ridge-Regression mit "glmnet" liefert andere Koeffizienten als das, was ich nach "Lehrbuchdefinition" berechne?

Ich verwende die Ridge-Regression mitglmnet R package. Mir ist aufgefallen, dass die Koeffizienten, die ich von @ erhalglmnet::glmnetie @ -Funktion unterscheidet sich von denen, die ich durch die Berechnung von Koeffizienten per Definition erhalte (unter Verwendung desselben Lambda-Werts). Könnte mir jemand erklären warum?

Data (beide: responseY und EntwurfsmatrixX) sind skaliert.

library(MASS)
library(glmnet)

# Data dimensions
p.tmp <- 100
n.tmp <- 100

# Data objects
set.seed(1)
X <- scale(mvrnorm(n.tmp, mu = rep(0, p.tmp), Sigma = diag(p.tmp)))
beta <- rep(0, p.tmp)
beta[sample(1:p.tmp, 10, replace = FALSE)] <- 10
Y.true <- X %*% beta
Y <- scale(Y.true + matrix(rnorm(n.tmp))) # Y.true + Gaussian noise

# Run glmnet 
ridge.fit.cv <- cv.glmnet(X, Y, alpha = 0)
ridge.fit.lambda <- ridge.fit.cv$lambda.1se

# Extract coefficient values for lambda.1se (without intercept)
ridge.coef <- (coef(ridge.fit.cv, s = ridge.fit.lambda))[2:(p.tmp+1)]

# Get coefficients "by definition"
ridge.coef.DEF <- solve(t(X) %*% X + ridge.fit.lambda * diag(p.tmp)) %*% t(X) %*% Y

# Plot estimates
plot(ridge.coef, type = "l", ylim = range(c(ridge.coef, ridge.coef.DEF)),
     main = "black: Ridge `glmnet`\nred: Ridge by definition")
lines(ridge.coef.DEF, col = "red")

Antworten auf die Frage(4)

Ihre Antwort auf die Frage