¿Cómo liberar la memoria de la GPU ocupada cuando se llama al modelo keras por Apache mod_wsgi django?

La configuración de mi servidor es la siguiente:

apache 2.4.23.Mod_wsgi 4.5.9

Al usar el framework Django y el servidor apache, llamamos al modelo de aprendizaje profundo de Keras.Y después de la exitosa llamada del modelo, el modelo siempre se ha estado ejecutando en la memoria de la GPU, lo que hace que la memoria de la GPU no se pueda liberar, excepto al apagar el servidor apache.

Entonces,¿Hay alguna manera de controlar la liberación de la memoria GPU al llamar a un modelo Keras de Apache + Mod_wsgi + Django?

¡Gracias!

Capturas de pantalla de huella de memoria en tiempo de ejecución

Respuestas a la pregunta(3)

Su respuesta a la pregunta