学习知识汇总(持续更新......)

章节 内容
常用 Colab使用教程

csdn博客编辑教程目录

新版CSDN编辑器示例(代码及显示样式)

如何快速转载CSDN中的博客

B站视频资料汇总
系统 windows10和安装linux双系统安装教程(超简单)

Window拷贝文件到Ubuntu虚拟机

VMware虚拟机安装Ubuntu20.04详细图文教程

Windows下设置Python国内镜像源

Windows环境下永久修改pip镜像源的方法

Ubuntu pip3 pip使用清华源

Ubuntu修改默认源为清华源

ubuntu更换源(清华源)并更新系统

ubuntu18.04 source.list, conda, pip配置清华源

wsl2安装与使用笔记

Ubuntu/WSL2安装anaconda3教程(保姆级)

WSL2的安装与使用-Windows与Linux双系统的新选择

Windows10/11 WSL2 安装nvidia-cuda驱动

pip的安装包在虚拟环境中找不到(虚拟环境的pip/python使用的是全局的pip/python)
软件、编辑器 关于IDM下载器免费注册这件事

关于vscode安装包下载太慢解决方法(详解)

VScode快捷键(最全)

【转】23个常用的VSCode快捷键(动图演示)
深度学习 深度学习知识点总结

混淆矩阵、准确率、精确率/查准率、召回率/查全率、F1值、ROC曲线的AUC值

机器学习(四)ROC 和 AUC

RSME,MSE,R2等指标的解释与思考

评估回归模型的指标:MSE、RMSE、MAE、R2、偏差和方差

1*1卷积核的作用

深度学习中卷积的参数量与计算量

【含泪提速!】一文全解相似度算法、跟踪算法在各个AI场景的应用(附代码)
数据集和项目 深度学习数据预处理_python批量转换labelme标注的json格式标签为png格式

精品收藏:GitHub人工智能AI开源项目

车辆信息检测数据集收集汇总

【表面缺陷检测】常用开源表面缺陷检测数据集 整理

【表面缺陷检测】表面缺陷检测数据集汇总

表面缺陷检测数据集汇总及其相关项目推荐_Github开源

使用LPRNet进行车牌识别

人体姿态估计(人体关键点检测)2D Pose训练代码和Android源码
Git Git常用命令详解

如何将本地的代码上传到github

如何在github上传本地项目代码(新手使用)

Git的使用–如何将本地项目上传到Github(两种简单、方便的方法)
Python Python和JSON、yaml、excel、配置文件、logging

Python登录豆瓣并爬取影评

python爬虫设置代理ip池——方法(一)

roLabelImg转DATO格式数据

图像检测与分割标注文件XML/JSON/TXT一键批量转换&编辑软件

Python Labelme标注的json与LabelImg标注的xml 数文件相互转换、以及YOLO数据集 VOC数据格式、coco数据集(仅适用矩形框)含实例分割的coco和labelme互转

labelme数据集转dota、rolabelimg以及rolabelimg转dota、labelme和labelimg数据集旋转水平镜像 垂直镜像 和水平垂直镜像
C++ gcc/g++ 优化标识 -O1 -O2 -O3 -Os -Ofast -Og的作用

如何在基于python3的conda虚拟环境中从头编译PyKDL
Pytorch 1行代码消除PyTorch的CUDA内存溢出报错,这个GitHub项目刚发布就揽星600+
CUDA pytorch的安装与配置CUDA与cuDNN版本的选择

Pytorch Gpu环境配置(win亲测可用)

Ubuntu 20.04安装CUDA 11

Ubuntu下CUDA的安装及配置(run方式)
数据增强 低光照图像增强算法汇总

图像增强算法总结

python 图像增强算法

多尺度图像增强Retinex相关算法学习及实现

图像去雾算法

Python图像处理丨详解图像去雾处理方法

OpenCV–Python 图像增强(线性变换,直方图正规化,伽马变换,全局直方图均衡化,限制对比度的自适应直方图均衡化)

[Python图像处理] 三十.图像预处理之图像去雾详解(ACE算法和暗通道先验去雾算法)丨【拜托了,物联网!】

最快最好用的数据增强库「albumentations」 一文看懂用法

图像色彩增强之python实现——MSR,MSRCR,MSRCP,autoMSRCR

语义分割中的数据增强方法

图片数据不够?我做了一个免费的图像增强软件
图像的特征提取、匹配、拼接 SIFT,SURF,ORB,FAST,BRISK 特征提取算法比较

OPENCV SIFT SURF ORB FAST 代码以及效果对比

sift、surf、orb 特征提取及最优特征点匹配

Opencv下利用SIFT、SURF、ORB三种特征点实现图像匹配

特征点匹配之-光流法(LK)

Opencv项目实战:04 全景图片拼接

全景图像拼接【计算机视觉】

OpenCV全景图像拼接的实现示例
激活函数、损失函数 深度学习—激活函数详解

目标检测损失函数

目标检测中的损失函数

Loss function——目标函数,损失函数和代价函数

基础积累_图像分割损失函数最全面、最详细总结,含代码

【损失函数合集】超详细的语义分割中的Loss大盘点

【论文解读】Focal Loss公式、导数、作用详解

PaddlePaddle 盘点图像分割中的损失函数
模型部署 【windows版】TensorRT安装教程

TensorRT - 自带工具trtexec的参数使用说明

Windows CMake编译错误:No CUDA toolset found解决方法

使用TensorRT加速Pytorch模型(简单实用)

yolov5笔记(3)——移动端部署自己的模型(随5.0更新)

pytorch模型转TensorRT模型部署

yolov5_deepsort_tensorrt
RNN 全面解析RNN,LSTM,Seq2Seq,Attention注意力机制

pytorch-crnn实践以及内置ctc_loss使用小结

Seq2Seq模型

Seq2Seq模型介绍

如何优雅的使用pytorch内置torch.nn.CTCLoss的方法
ResNet 采用跳跃连接的方式将冗余的网络层进行恒等映射,解决了梯度弥散及网络退化等问题(ResNet-18 ResNet-34 ResNet-50 ResNet-101 ResNet-152)

ResNet详解

ResNet及其变体概述
DenseNet ResNet的变体
相比 ResNet的跳跃连接,该网络是一个稠密链接的网络,它前面的模块直接和后面所有的模块连接,虽然这样网络层数较多,但由于不像 ResNet那样的直接相加而是直接相连,所以参数要少很多,运行速度快,在某种程度上效果要优于 ResNet
MobileNet 轻量级神经网络MobileNet全家桶详解

MobileNetv1:是一个基于深度可分离卷积模型而设计的网络模型,网络卷积过程中先对每个通道用3×3卷积进行每个通道上的像素信息融合,再用1×1的卷积对每个通道进行融合,最后再合并通道,这样的卷积模型极大的减小了参数量,使得该网络模型可以应用到移动设备上。

MobileNetv2:在v1的基础上增加了残差结构,类似于瓶颈结构,输入→1×1卷积→3×3卷积放大通道用于深度卷积进行通道分离融合各自通道上的像素→1×1卷积再将通道还原为原来大小,将输入部分的权重add到最后的输出权重,即残差结构,v2不仅对通道进行分离和像素上的融合减少参数,而且由于残差的加入使得深层次的信息与浅层的信息也进行了融合,避免了梯度消失网络退化的问题,同时参数量很小可以部署到移动设备中

MobileNetv3轻量级网络——MobileNetV3
ShuffleNet shuffleNet系列

在分组卷积中(一般用在深度可分离卷积的分组卷积中)为了避免分组之间的通道没有直接联系,引入了通道混洗(shuffle),网络模型中应用了该种加了通道混洗的分组卷积模块,使得参数大大量减小,运算速度加快,如将一张图通过普通卷积,将通道扩充到指定通道数,比如3个通道到9个通道,然后将每个通道上的第一个值合成一个长度为9的向量,resize成3×3的一个小特征图,依次类推,将第二个值的集合组成第二个小特征图,最后将这些小特征图组成一 张大的特征图,再将每个3×3的小特征图汇总成一 个特征,变成和原输入图一样的大小,就完成了像素级别的混合。
目标检测 YOLOv5网络详解

YOLOv5-4.0 源代码导读-持续更新

深入浅出Yolo系列之Yolov5核心基础知识完整讲解

YOLOv5训练自己的数据集之详细过程篇

YOLOv5训练自己的数据集(超详细完整版)

yolov5增加小目标检测层

YOLOv5改进之六:增加小目标检测层

pytorch中加入注意力机制(CBAM),以yolov5为例

YOLOV5 的小目标检测网络结构优化方法汇总(附代码)

YOLOv5 小目标检测、无人机视角小目标检测

yolov5小目标检测-提高检测小目标的检测精度

YOLOv5在无人机/遥感场景下做旋转目标检测时进行的适应性改建详解

yolov7: 从搭配环境到训练自己的数据集

YOLOv7(目标检测)入门教程详解—检测,推理,训练
图像分割 语义分割(同种物体用同一颜色标注)和实例分割(同种物体用不同颜色标注)

1、FCN(全卷积):全卷积stride为2下采样,反卷积上采样(效果不佳)

UNET详解和UNET++介绍(零基础)
2、UNet:类似于编解码形式,两次卷积+下采样作为一个小模块,小模块的多少(网络深度)取决于输入图的大小下采样使用最大值池化进行但不使用padding的形式,它会丢失部分信息在转换回原图大小时导致小目标位置发生偏移,上采样使用临近插值,不使用转置卷积是为了避免特征叠加不均匀

3、UNet++:在普通unet上增加了同尺度下的稠密连接,而且采用深监督的方法(deep supervision)对每一个支路都增加一个loss函数(使得中间层在反向转播时也能接收到损失),全局的loss由分支的加权累加而成剪枝可以让模型在测试时适应任何层次的任务(浅层任务就减掉深层的神经元)

UNet3+阅读笔记
4、UNet3+:增加了多尺度下的跳跃连接并利用多尺度的深监督,使得提供参数更少但能产生更准确的位置感知和边界增强的分割图

图像分割之U2-Net介绍
5、U2Net:以unet为思想,提出了一种新的RSU内部结构,用于捕获外部U形结构每个stage内的多尺度特征,将解码阶段每一层输出的显著性概率图上采样到输入图像大小利用1×1的卷积层和sigmoid函数将它们融合在一起做最终的图像输出

Deeplab系列图像分割模型:

DeepLab系列总结

1、deeplabv1:是一种结合深度卷积DCNN和概率图模型的图像分割模型(将空洞卷积应用到DCNN网络上获得较大感受野的同时把全连接层改成了卷积层,换句话说就是将DCNN改造成了深度全卷积且卷积核采用空洞卷积的网络模型,里面的下采样使用的是普通的空间金字塔池化SPP)

2、deeplabv2:是在v1的基础上将SPP变成了ASPP,也就是将空间金字塔池化变成了空洞金字塔池化(即将需要池化的部分分成几份,每份采用不同的空洞卷积也就是得到不同的感受野,最后再用1×1的卷积将每份都变成相同大小后再组合到一起),其原理就是利用不同膨胀因子的空洞卷积去融合多尺度的信息

3、deeplabv3:是在v2的基础上结合了残差结构,避免训练过程梯度弥散和网络退化

Mask RCNN:一个实例分割的算法

其实mask R-cnn就是在faster R-cnn的基础上增加了一个mask层,具体流程就是输入图像经过卷积得到一个feature map ,对feature map上每一点设定预定个的ROI作为候选,然后这些候选的ROI传入到一个RPN层当中筛掉一部分候选区ROI(RPN层会去掉背景留下前景),这些留下的特征图上的建议图ROI经过ROIAlign(即将原图和feature map的像素对应起来,再将feature map 和固定的特征图对应起来)操作后得到固定的特征图,此时除了分类和回归任务,另外增加的mask层用于图像分割,也就是在ROIAlign操作后会给固定特征图上对应ROI部分做一个二值掩码操作(也就是在每个ROI里面进行全卷积FCN),也就是留下的建议图ROI所在部分像素值标识为1,其余的为0,经过上采样到输入图大小时就得到了目标分割后的图像了。

Pytorch Mask RCNN训练自定义数据集

Pytorch版(torch-cuda版 ) Mask-RCNN 训练自己的数据集

COCO数据处理(二)根据自己提取的类的json文件生成对应的mask二值图并画在原图上
目标追踪 带你入门多目标跟踪

OSNet代码解析

BC-OSNet——OSNet的增强版(Re-ID)

DeepSORT(算法细节)

DeepSORT(工作流程)

Deep SORT多目标跟踪算法代码解析

目标追踪—deepsort训练特征提取网络模型

yolov5+Deepsort实现目标跟踪

pytorch yolo5+Deepsort实现目标检测和跟踪

Yolov5 + Deepsort 重新训练自己的数据(保姆级超详细)

Yolov5_DeepSort_Pytorch代码学习与修改记录

更新版yolov5_deepsort_pytorch实现目标检测和跟踪

YoloV5 + deepsort + Fast-ReID 完整行人重识别系统(三)

目标跟踪之 MOT 经典算法:ByteTrack 算法原理以及多类别跟踪
OCR 源码:OCR_PytorchMMOCRCRAFT

视频教程:
基于pytorch的OCR文字识别项目实战
OCR文字识别实战

文本检测数据集:ICDAR
文本识别数据集:Synthetic Chinese String Dataset

文本检测算法:文本检测综述(2017 ~ 2021 持续更新)

2020最新文本检测算法TextFuseNet

【学习与理解】:CTPN算法

文本检测之-craft检测算法

手把手教你学DBNet

端到端文本检测识别算法: SwinTextSpotter:基于文本检测与识别更好协同的场景文本识别

项目实战——文档扫描OCR识别
自编码 自编码是一种非监督学习,它的主要作用是对输入数据进行编码然后再解码,这么做的目的是让解码的输出尽可能的复现输入的信息,利用这种编解码的形式再结合神经网络模型去学习编码中得到的信息再输出这些信息(可以去掉部份冗余的无用信息)的这种方式可以应用在文字识别提取上。

作用:

1、提取主要特征数据作为网络模型的输入(在网络中学习),以减小计算量

2、自编码最后的输出是尽可能的复现输入(这些输出与输入会有细微差别),这时候就可以用自编码(得到这些输出)作为增加数据多样性的工具

分类:

1、普通自编码(欠完备的自编码器):编码隐藏层比输入层的神经元个数少

2、稀疏自编码:编码隐藏层比输入层的神经元个数还多,需要使用L1、L2正则化或者使用dropout进行神经元约束(使部分神经元不被激活)不添加惩罚项的话,模型学不到任何东西(输入和输出完全一样)

3、降噪自编码:以一定概率分布去擦除原始输入的数据,让网络去学这些丢失的(破损)数据,可能会擦除一些噪声

4、收缩自编码:降噪自编码+稀疏自编码(降噪的鲁棒性体现在隐藏层上)

5、堆叠自编码:由多个自编码器级联,逐层提取特征

6、深度自编码:多个编码器对应多个解码器
GAN(对抗生成网络) 一种全新的非监督式架构模型(零和博弈思想)

1、分类器(D):对输入的真实图片和生成器生成的假图片进行判别,判别出假图则提高生成器的参数,使其生成的假图更逼真。

2、生成器(G):生成的假图片与真图片一起输入到分类器中进行判别,判别不出假图则提高判别器的参数,使其判别更加准确。

3、效果:两个模型之间达到一种平衡状态(判别与生成模型识别骗过对方的概率都为0.5)

4、生成器生成假图的做法:选取训练数据潜在空间中的元素进行组合,并加入随机噪音

5、应用场景:图像风格迁移、图像补全、去噪以及超分辨率等等

改进后的DCGAN:

判别网络中使用步长大于1代替池化层下采样,生成网络中采用转置卷积进行上采样,判别网络的输入层和生成网络的输出层不使用BN防止样本震荡和模型不稳定,卷积代替全连接,生成网络的输出层使用tanh激活其余层都使用ReLU判别网络都使用LeakyReLu激活

猜你喜欢

转载自blog.csdn.net/weixin_42166222/article/details/127568424
今日推荐