El protector de Tensorflow parece sobrescribir los archivos variables guardados existentes

Estoy escribiendo código de red neuronal en tensorflow. Lo hice para guardar variables en cada 1000 época. Entonces, espero guardar variables de 1001th epoch, 2001th epoch, 3001th epoch ... para diferentes archivos. El siguiente código es la función de guardar que hice.

def save(self, epoch):
    model_name = "MODEL_save"
    checkpoint_dir = os.path.join(model_name)

    if not os.path.exists(checkpoint_dir):
        os.makedirs(checkpoint_dir)
    self.saver.save(self.sess, checkpoint_dir + '/model', global_step=epoch)
    self.saver.save(self.sess, checkpoint_dir + '/model')
    print("path for saved %s" % checkpoint_dir)

Hice este código para guardar dos veces una vez que se llama a la función. Porque quería guardar el historial de variables para cada 1000 época usando 'global_step = epoch'. Y quería guardar las últimas variables en el archivo sin época especificada. Llamo a esta función cada vez que se cumple la condición de época como se muestra a continuación.

for epoch in xrange(self.m_total_epoch):

    .... CODE FOR NEURAL NETWORK ....

    if epoch%1000 == 1 and epoch != 1:
        self.save(epoch)

Suponiendo que la época actual es 29326, espero que todos los archivos guardados en el directorio sean 1001, 2001, 3001 ... 29001. Sin embargo, solo hay una parte de los archivos de 26001, 27001, 28001, 29001. Verifiqué que sucedió en otras computadoras . Es diferente de lo que esperaba. ¿Por que sucede?

Respuestas a la pregunta(1)

Su respuesta a la pregunta