1.用更高性能的GPU服务器(最砸钱最省力的结果)
2.用flask或tensorflowserving做模型线上部署,可以省却读model的时间
加快tensorflow模型预测速度
猜你喜欢
转载自blog.csdn.net/weixin_43838785/article/details/104390333
今日推荐
周排行