TPU和GPU跑模型时间统计(持续更新中)

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/appleyuchi/article/details/101161482

下面记录的训练时间就是所有数据开始训练到生成模型为止的时间,代码中都不包含交叉验证等策略。

已经尝试过的实验如下:
 

框架 数据集 代码 加速设备 平台 耗时
ResNet cifar10 TPU运行Cifar10.ipynb TPU Google Colaboratory 2000s
XGBoost

IEEE-CIS-Fraud-Detection

ieee-fraud-xgboost-with-gpu-fit-in-40s.ipynb Tesla P100-PCIE-16GB KaggleNotebook 38s
XGBoost IEEE-CIS-Fraud-Detection ieee-fraud-xgboost-with-gpu-fit-in-40s.ipynb NVIDIA Corporation GK210GL [Tesla K80] (rev a1) Google Colaboratory 15min 39s
XGBoost IEEE-CIS-Fraud-Detection ieee-fraud-xgboost-with-gpu-fit-in-40s.ipynb Tesla V100-SXM2-16GB Baidu AIStudio 30s
tf.keras.models.Sequential() MNIST colab上使用GPU和TPU比较.ipynb(已经提交bug给Tensorflow,暂不可用) TPU Google Colaboratory 44s
tf.keras.models.Sequential() MNIST colab上使用GPU和TPU比较.ipynb(已经提交bug给Tensorflow,暂不可用) NVIDIA Corporation GK210GL [Tesla K80] (rev a1) Google Colaboratory 2min
torch_xla MNIST mnist-training-xrt-1-15.ipynb TPU Google Colaboratory 1min4s
torch

rsna_train_stage_1_images_png_224x

rsna_test_stage_1_images_png_224x

Pytorch ResNeXt 32x8d CenterCrop-修改数据量 .ipynb Tesla P100-PCIE-16GB KaggleNotebook 约4.5小时/epoch

如何根据模型选择最佳平台呢?结论是:

XGBoost最佳是Baidu AIStudio

Tensorflow最佳选择是Google Colaboratory

根据[1]可知,TPU的长处是CNN,而不是LSTM.

Reference:

[1]https://blog.csdn.net/weixin_42137700/article/details/89041913

猜你喜欢

转载自blog.csdn.net/appleyuchi/article/details/101161482