VisionTransformer[VIT],DETR

看看老师视频与博客方法把细节都过了一遍 

目录

VisionTransformer[VIT]

DeTR


VisionTransformer[VIT]

 

 (212条消息) ViT全流程笔记,附代码详解。_AI Studio的博客-CSDN博客_vit代码

 思考关于

 

 

Model interpreting go to these reference links to learn

Inductive bias

 

 

 

 

 

 

 

 

 

 

  

 

 

MAE_link:

 

 

 

 

 

 

Self-pretrained method don't need people to label dataset ,that's  an effervescent work.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  

 

 

DeTR

Detr  and vit

 detr和vit有什么区别和联系啊,可以把他们整合到一起吗? - 知乎detr和vit有什么区别和联系啊,可以把他们整合到一起吗? - 知乎

 
 

参考资料

Vision Transformer(ViT)PyTorch代码全解析(附图解)_Adenialzz的博客-CSDN博客_vit-pytorch

//简单版 

(212条消息) ViT:视觉Transformer backbone网络ViT论文与代码详解_louwill12的博客-CSDN博客

 //完整版

神经网络学习小记录67——Pytorch版 Vision Transformer(VIT)模型的复现详解_Bubbliiiing的博客-CSDN博客

11.1 Vision Transformer(vit)网络详解_哔哩哔哩_bilibili //整体(212条消息) 一张图等于 16x16 个字,计算机视觉也用上 Transformer 了_公众号机器学习与生成对抗网络的博客-CSDN博客 https://blog.csdn.net/lgzlgz3102/article/details/109140622

//整体的补充 ,非常细节

ViT论文逐段精读【论文精读】_哔哩哔哩_bilibili //配套视频

ViT论文逐段精读【论文精读】 - 哔哩哔哩 (bilibili.com) //配套笔记

Yolo系列各个模块的讲解

深入浅出Yolo系列之Yolov5核心基础知识完整讲解 - 知乎 (zhihu.com)

//多个交互层多头注意力(MSA)和多层感知器(MLP) 

 Vision MLP 超详细解读 (原理分析+代码解读) (四) - 知乎 (zhihu.com)

(212条消息) ViT全流程笔记,附代码详解。_AI Studio的博客-CSDN博客_vit代码

//encoder,手写解释的很清楚 

(212条消息) BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结_夏洛的网的博客-CSDN博客_layernorm和batchnorm

//为什么要选择layer normalization 

猜你喜欢

转载自blog.csdn.net/weixin_43332715/article/details/123810530
ViT