作者:推广中医 | 来源:互联网 | 2023-02-04 10:13
我的服务器配置如下:
apache 2.4.23.
Mod_wsgi 4.5.9
通过使用Django框架和apache服务器,我们称之为Keras深度学习模型.在成功调用模型之后,模型一直在GPU内存中运行,这导致除了关闭apache服务器之外无法释放GPU内存.
那么,在通过Apache + Mod_wsgi + Django调用Keras模型时,有没有办法控制GPU内存的释放?
谢谢!
运行时内存足迹截图
1> Raven Cheuk..:
对于无法K.clear_session()
上班的人,还有另一种解决方案:
from numba import cuda
cuda.select_device(0)
cuda.close()
Tensorflow
只是为GPU分配内存,而CUDA负责管理GPU内存。
如果您在用清除所有图形后CUDA不知何故拒绝释放GPU内存K.clear_session()
,则可以使用该cuda
库对CUDA进行直接控制以清除GPU内存。
2> 小智..:
from keras import backend as K
K.clear_session()
这将清除当前会话(Graph),因此应从GPU中删除陈旧模型.如果它不起作用,您可能需要'del model'并重新加载它.