¿Cómo actualizar los parámetros del modelo con gradientes acumulados?

Estoy usando TensorFlow para construir un modelo de aprendizaje profundo. Y nuevo en TensorFlow.

Debido a alguna razón, mi modelo tiene un tamaño de lote limitado, entonces este tamaño de lote limitado hará que el modelo tenga una gran variación.

Entonces, quiero usar algún truco para agrandar el tamaño del lote. Mi idea es almacenar los gradientes de cada mini lote, por ejemplo 64 mini lotes, y luego sumar los gradientes juntos, usar los gradientes medios de estos 64 mini lotes de datos de entrenamiento para actualizar los parámetros del modelo.

Esto significa que para los primeros 63 mini lotes, no actualice los parámetros, y después del 64 mini lotes, actualice los parámetros del modelo solo una vez.

Pero como TensorFlow está basado en gráficos, ¿alguien sabe cómo implementar esta característica deseada?

Muchas gracias.

Respuestas a la pregunta(3)

Su respuesta a la pregunta