【模型压缩】Distiller学习-初认识

Distiller学习-初认识

简介

  • Intel AILab的神经网络压缩框架,建立在Pytorch基础上

安装

在这里插入图片描述

压缩方法

  • 权重正则化方法
  • 权重剪枝方法
  • 训练后量化方法
  • 训练时量化方法
  • 条件计算
  • 低质分解方法
  • 知识蒸馏方法

在这里插入图片描述

总体目录

在这里插入图片描述

核心代码实现

在这里插入图片描述

所有案例的配置文件

在这里插入图片描述

举例

  • 初始化网络
  • 评价网络模型的参数重要性
  • 移除不重要的神经元
  • fine-tuning
  • 继续剪枝 重新训练

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_44653420/article/details/133465474