So ermitteln Sie die maximale Chargengröße für ein seq2seq-Tensorflow-RNN-Trainingsmodell

Gegenwärtig verwende ich die Standardgröße 64 als Chargengröße für das seq2seq-Tensorflow-Modell. Was ist die maximale Batch-Größe, Layer-Größe usw. Ich kann mit einer einzelnen Titan X-GPU mit 12 GB RAM mit Haswell-E xeon 128 GB RAM gehen. Die Eingabedaten werden in Einbettungen konvertiert. Es folgen einige hilfreiche Parameter, die ich verwende. Die Zelleneingabegröße scheint 1024 zu betragen:

encoder_inputs: a list of 2D Tensors [batch_size x cell.input_size].
 decoder_inputs: a list of 2D Tensors [batch_size x cell.input_size].
 tf.app.flags.DEFINE_integer("size", 1024, "Size of each model layer.")

Also, basierend auf meiner Hardware, was ist die maximale Stapelgröße, Ebenen, Eingabegröße, die ich gehen kann? Derzeit zeigt die GPU, dass 99% des Speichers belegt ist.

Antworten auf die Frage(6)

Ihre Antwort auf die Frage