我有一个用 tensorflow 构建并与 Django 项目集成的对象检测模型。当前发生的是,每当请求到达 Django API 时,都会创建一个 tf 会话并在检测完成后关闭。是否可以使用所需的推理图启动 Django 服务器和 tensorflow 会话以减少对象检测时间?
解决方案包括抽象逻辑以使用模块中的会话运行推理。在这个模块中,会话和图形将被定义为全局变量一次,并且可以被您的视图或其他任何东西透明地访问,使用像函数这样的接口run_inference
。
如果您需要对图形和/或会话的生命周期进行更精细的控制,您可以考虑添加诸如reload_graph
等的功能......或在您的模块中实现它,例如使用专用于管理张量流对象生命周期的类,并运行推理。
这在我看来是最好的解决方案。通过这种方式,您还可以拥有更强大的工作流程,并在例如您想要使用多线程并希望在推理代码的运行方式方面更加安全的情况下拥有更多控制权。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句