有没有一种方法可以使用我训练有素的模型来编译整个Python脚本,以便进行更快的推断?好像加载Python解释器一样,所有Tensorflow,numpy等都花费了很短的时间。当必须在服务器响应不平凡的请求频率时发生这种情况时,它似乎很慢。
编辑
我知道我可以使用Tensorflow服务,但由于与之相关的费用,我不想这样做。
如何设置服务器?如果要使用django,flask或龙卷风之类的python框架设置服务器,则只需预加载模型并将其保留为全局变量,然后使用此全局变量进行预测即可。
如果您使用其他服务器。您还可以制作用于预测作为本地服务器的整个python脚本,并在python服务器和Web服务器之间转换请求或响应。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句