tf2.0使用官方resnet50 finetune

前言

没咋用tf了,入门学的tf,一堆sess整的最后不想看了…解除了pytorch还是torch好用,最近“机缘巧合”接了个tf的活,记录一下。

finetune官方模型

核心比较简单:

r50_finetune = tf.keras.models.Sequential()
model = tf.keras.applications.resnet50.ResNet50(input_shape = (img_size,img_size,3), weights="imagenet", include_top = False, pooling = 'avg')
r50_finetune.add(model)
r50_finetune.add(tf.keras.layers.Dense(num_classes, activation = 'softmax'))

r50_finetune.compile(
    optimizer = "sgd",
    loss = 'categorical_crossentropy',
    metrics=['accuracy'])

r50_finetune.summary()
  • 第一行用Sequential构建tf模型,方便增删model
  • 第二行调用tf库封装的resnet50,第一个参数设置输入的大小,一般是(224,224,3),第二个参数是否加载imagenet的pretrain,当然选是,选了是就要把resnet50的fc层删掉,于是第三个参数把top给删了,最后一个参数删了头出来是没有池化的feature map加一个平均池化把拉成一维。
  • 第三行,把刚定义的r50加入我们的模型
  • 第四行,平均池化后加一个fc层对应我们的分类类别数。
  • 后面的就是构建优化器和损失函数了
  • 最后一行打印模型

总结

怎么说呢,tf的高层api封装的还挺全,虽然简洁但是感觉还是不太习惯这样的写法。

猜你喜欢

转载自blog.csdn.net/qq_37668436/article/details/120874386