So ermitteln Sie die maximale Chargengröße für ein seq2seq-Tensorflow-RNN-Trainingsmodell
Gegenwärtig verwende ich die Standardgröße 64 als Chargengröße für das seq2seq-Tensorflow-Modell. Was ist die maximale Batch-Größe, Layer-Größe usw. Ich kann mit einer einzelnen Titan X-GPU mit 12 GB RAM mit Haswell-E xeon 128 GB RAM gehen. Die Eingabedaten werden in Einbettungen konvertiert. Es folgen einige hilfreiche Parameter, die ich verwende. Die Zelleneingabegröße scheint 1024 zu betragen:
encoder_inputs: a list of 2D Tensors [batch_size x cell.input_size].
decoder_inputs: a list of 2D Tensors [batch_size x cell.input_size].
tf.app.flags.DEFINE_integer("size", 1024, "Size of each model layer.")
Also, basierend auf meiner Hardware, was ist die maximale Stapelgröße, Ebenen, Eingabegröße, die ich gehen kann? Derzeit zeigt die GPU, dass 99% des Speichers belegt ist.