O protetor de fluxo de tensão parece sobrescrever os arquivos variáveis salvos existentes

Estou escrevendo código de rede neural em tensorflow. Eu fiz isso para salvar variáveis em cada 1000 épocas. Então, espero salvar variáveis da época 1001, época 2001, época 3001 ... para arquivos diferentes. O código abaixo é a função de salvamento que criei.

def save(self, epoch):
    model_name = "MODEL_save"
    checkpoint_dir = os.path.join(model_name)

    if not os.path.exists(checkpoint_dir):
        os.makedirs(checkpoint_dir)
    self.saver.save(self.sess, checkpoint_dir + '/model', global_step=epoch)
    self.saver.save(self.sess, checkpoint_dir + '/model')
    print("path for saved %s" % checkpoint_dir)

Eu criei esse código para salvar duas vezes quando a função é chamada. Porque eu queria salvar o histórico de variáveis para cada 1000 épocas usando 'global_step = epoch'. E queria salvar as variáveis mais recentes no arquivo sem época especificada. Eu chamo essa função sempre que a condição de época for atendida como abaixo.

for epoch in xrange(self.m_total_epoch):

    .... CODE FOR NEURAL NETWORK ....

    if epoch%1000 == 1 and epoch != 1:
        self.save(epoch)

Supondo que a época atual seja 29326, espero que todos os arquivos salvos no diretório sejam 1001, 2001, 3001 ... 29001. No entanto, há apenas uma parte parcial dos arquivos 26001, 27001, 28001, 29001. Verifiquei se isso ocorreu em outros computadores . É diferente do que eu esperava. Por que isso acontece?

questionAnswers(1)

yourAnswerToTheQuestion