Perda de iteração Caffe versus perda líquida de trem

Estou usando o caffe para treinar uma CNN com uma camada de perda euclidiana na parte inferior e meu arquivo solver.prototxt configurado para exibir a cada 100 iterações. Eu vejo algo assim,

Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229]     Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)

Estou confuso quanto à diferença entre a perda de Iteração e a perda líquida de Trem. Normalmente, a perda de iteração é muito pequena (em torno de 0) e a perda líquida de saída do trem é um pouco maior. Alguém pode esclarecer?

questionAnswers(1)

yourAnswerToTheQuestion