Berechnen des Regularisierungsparameters in der linearen Regression
Wenn wir ein hochgradiges lineares Polynom haben, das verwendet wird, um eine Menge von Punkten in einer linearen Regressionsanordnung anzupassen, verwenden wir Regularisierung, um eine Überanpassung zu verhindern, und wir schließen einen Lambda-Parameter in die Kostenfunktion ein. Dieses Lambda wird dann verwendet, um die Theta-Parameter im Gradientenabstiegsalgorithmus zu aktualisieren.
Meine Frage ist, wie berechnen wir diesen Lambda-Regularisierungsparameter?