Wo soll ich Dropout auf eine Faltungsebene anwenden?

Weil das Wort "Ebene" oft unterschiedliche Bedeutungen hat, wenn es auf eine Faltungsebene angewendet wird (einige behandeln alles durch Zusammenfassen als eine einzelne Ebene, andere Faltung, Nichtlinearität und Zusammenfassen als separate "Ebenen";siehe Abb. 9.7) Mir ist nicht klar, wo ich Dropout in einer Faltungsebene anwenden soll.

Kommt es zu einem Ausfall zwischen Nichtlinearität und Pooling?

ZB in TensorFlow wäre es so etwas wie:

kernel_logits = tf.nn.conv2d(input_tensor, ...) + biases
activations = tf.nn.relu(kernel_logits)
kept_activations = tf.nn.dropout(activations, keep_prob)
output = pool_fn(kept_activations, ...)

Antworten auf die Frage(2)

Ihre Antwort auf die Frage