Gradiente en regresión continua utilizando una red neuronal

Estoy intentando implementar una NN de regresión que tiene 3 capas (1 entrada, 1 capa oculta y 1 capa de salida con un resultado continuo). Como base tomé una clasificación NN decoursera.org clase, pero cambió la función de costo y el cálculo del gradiente para que se ajuste a un problema de regresión (y no a una clasificación):

Mi nnCostFunction ahora es:

function [J grad] = nnCostFunctionLinear(nn_params, ...
                                   input_layer_size, ...
                                   hidden_layer_size, ...
                                   num_labels, ...
                                   X, y, lambda)

Theta1 = reshape(nn_params(1:hidden_layer_size * (input_layer_size + 1)), ...
                 hidden_layer_size, (input_layer_size + 1));

Theta2 = reshape(nn_params((1 + (hidden_layer_size * (input_layer_size + 1))):end), ...
                 num_labels, (hidden_layer_size + 1));

m = size(X, 1);

a1 = X;
a1 = [ones(m, 1) a1];
a2 = a1 * Theta1';
a2 = [ones(m, 1) a2];
a3 = a2 * Theta2';
Y = y;

J = 1/(2*m)*sum(sum((a3 - Y).^2))

th1 = Theta1;
th1(:,1) = 0; %set bias = 0 in reg. formula
th2 = Theta2;
th2(:,1) = 0;

t1 = th1.^2;
t2 = th2.^2;
th = sum(sum(t1)) + sum(sum(t2));
th = lambda * th / (2*m);
J = J + th; %regularization


del_3 = a3 - Y;
t1 = del_3'*a2;
Theta2_grad = 2*(t1)/m + lambda*th2/m;

t1 = del_3 * Theta2;
del_2 = t1 .*  a2;
del_2 = del_2(:,2:end);
t1 = del_2'*a1;
Theta1_grad = 2*(t1)/m + lambda*th1/m;

grad = [Theta1_grad(:) ; Theta2_grad(:)];
end

Entonces uso esta función enencontrar Algoritmo, pero en primeras iteraciones fmincg end es trabajo. Creo que mi gradiente está mal, pero no puedo encontrar el error.

¿Alguien puede ayudar?

Respuestas a la pregunta(3)

Su respuesta a la pregunta