加快tensorflow模型预测速度

1.用更高性能的GPU服务器(最砸钱最省力的结果)
2.用flask或tensorflowserving做模型线上部署,可以省却读model的时间

发布了614 篇原创文章 · 获赞 140 · 访问量 5万+

猜你喜欢

转载自blog.csdn.net/weixin_43838785/article/details/104390333