10 veces la validación cruzada

En k fold tenemos esto: divide los datos en k subconjuntos de (aproximadamente) igual tamaño. Usted entrena la red k veces, cada vez que omite uno de los subconjuntos del entrenamiento, pero usa solo el subconjunto omitido para calcular el criterio de error que le interese. Si k es igual al tamaño de la muestra, esto se denomina validación cruzada de "dejar uno afuera". "Leave-v-out" es una versión más elaborada y costosa de validación cruzada que implica omitir todos los subconjuntos posibles de casos v.

Qué significan las pruebas y la capacitación a término? No puedo entender.

¿podría decirme algunas referencias donde puedo aprender este algoritmo con un ejemplo?

Train classifier on folds: 2 3 4 5 6 7 8 9 10; Test against fold: 1
Train classifier on folds: 1 3 4 5 6 7 8 9 10; Test against fold: 2
Train classifier on folds: 1 2 4 5 6 7 8 9 10; Test against fold: 3
Train classifier on folds: 1 2 3 5 6 7 8 9 10; Test against fold: 4
Train classifier on folds: 1 2 3 4 6 7 8 9 10; Test against fold: 5
Train classifier on folds: 1 2 3 4 5 7 8 9 10; Test against fold: 6
Train classifier on folds: 1 2 3 4 5 6 8 9 10; Test against fold: 7
Train classifier on folds: 1 2 3 4 5 6 7 9 10; Test against fold: 8
Train classifier on folds: 1 2 3 4 5 6 7 8 10; Test against fold: 9
Train classifier on folds: 1 2 3 4 5 6 7 8 9;  Test against fold: 10  

Respuestas a la pregunta(2)

Su respuesta a la pregunta