Como liberar a memória da GPU ocupada ao chamar o modelo keras pelo Apache mod_wsgi django?
A configuração do meu servidor é a seguinte:
apache 2.4.23.Mod_wsgi 4.5.9Usando a estrutura do Django e o servidor apache, chamamos o modelo de aprendizado profundo do Keras.E após a chamada bem-sucedida do modelo, o modelo sempre esteve em execução na memória da GPU, o que faz com que a memória da GPU não possa ser liberada, exceto pelo desligamento do servidor apache.
Assim,existe alguma maneira de controlar o lançamento da memória da GPU ao chamar um modelo Keras por Apache + Mod_wsgi + Django?
Obrigado!