本文包含了迄今为止我发现的最佳教程内容。它绝不是网上每个ML相关教程的详尽列表 - 这将是压倒性的和重复的。此外,还有一堆平庸的内容。我的目标是链接到我在机器学习和NLP中的重要子主题上找到的最佳教程。
通过教程,我指的是打算简明扼要地教授概念的介绍性内容。我避免包括具有更广泛覆盖范围的书籍章节和研究论文,这些论文通常在教学概念方面做得不好。为什么不买书呢?当您尝试学习特定的利基主题或想要获得不同的观点时,教程会很有帮助。
我将这篇文章分为四个部分:机器学习,NLP,Python和数学。我在每个部分都包含了一些主题,但考虑到材料的广泛性,我不可能包含所有可能的主题。
如果有很好的教程你知道我错过了,请告诉我!我试图将每个主题限制为五到六个教程,因为除此之外还有重复性。每个链接应该具有与其他链接不同的材料或以不同的方式呈现信息(例如,代码与幻灯片与长形式)或从不同的角度。
机器学习
从机器学习入手(machinelearningmastery.com)
机器学习很有趣!(medium.com/@ageitgey)
机器学习规则:ML工程的最佳实践(martin.zinkevich.org)
机器学习速成课程:第一部分,第二部分,第三部分(伯克利机器学习)
机器学习理论及其应用简介:带示例的视觉教程(toptal.com)
机器学习的温和指南(monkeylearn.com)
我应该使用哪种机器学习算法?(sas.com)
机器学习入门(sas.com)
初学者机器学习教程(kaggle.com/kanncaa1)
激活和丢失功能
Sigmoid神经元(neuralnetworksanddeeplearning.com)
激活函数在神经网络中的作用是什么?(quora.com)
具有优缺点的神经网络中激活函数的综合列表(stats.stackexchange.com)
激活功能及其类型 - 哪个更好?(medium.com)
理解对数损失(exegetic.biz)
损失函数(斯坦福CS231n)
L1与L2损失函数(rishy.github.io)
交叉熵成本函数(neuralnetworksanddeeplearning.com)
偏压
偏差在神经网络中的作用(stackoverflow.com)
神经网络中的偏置节点(makeyourownneuralnetwork.blogspot.com)
什么是人工神经网络的偏见?(quora.com)
感知
感知器(neuralnetworksanddeeplearning.com)
感知(natureofcode.com)
单层神经网络(感知器)(dcu.ie)
从Perceptrons到Deep Networks(toptal.com)
回归
线性回归分析介绍(duke.edu)
线性回归(ufldl.stanford.edu)
线性回归(readthedocs.io)
Logistic回归(readthedocs.io)
机器学习的简单线性回归教程(machinelearningmastery.com)
机器学习的Logistic回归教程(machinelearningmastery.com)
Softmax回归(ufldl.stanford.edu)
梯度下降
用梯度下降学习(neuralnetworksanddeeplearning.com)
渐变下降(iamtrask.github.io)
如何理解梯度下降算法(kdnuggets.com)
梯度下降优化算法概述(sebastianruder.com)
优化:随机梯度下降(斯坦福CS231n)
生成学习
生成学习算法(斯坦福CS229)
朴素贝叶斯分类器(monkeylearn.com)的实用解释
支持向量机
支持向量机(SVM)简介(monkeylearn.com)
支持向量机(斯坦福CS229)
线性分类:支持向量机,Softmax(Stanford 231n)
反向传播
是的你应该了解 backprop(medium.com/@karpathy)
你能给出神经网络反向传播算法的直观解释吗?(github.com/rasbt)
反向传播算法的工作原理(neuralnetworksanddeeplearning.com)
时间反向传播的温和介绍(machinelearningmastery.com)
反向传播,直觉(斯坦福CS231n)
深度学习
YN²深度学习指南(yerevann.com)
深度学习论文阅读路线图(github.com/floodsung)
坚果中的深度学习(nikhilbuduma.com)
深度学习教程(Quoc V. Le)
什么是深度学习?(machinelearningmastery.com)
人工智能,机器学习和深度学习之间有什么区别?(nvidia.com)
深度学习 - 直接涂料(gluon.mxnet.io)
优化和降维
数据维数减少的七种技术(knime.org)
主成分分析(斯坦福CS229)
辍学:一种改善神经网络的简单方法(Hinton @ NIPS 2012)
如何训练您的深度神经网络(rishy.github.io)
长期短期记忆(LSTM)
专家对长短期记忆网络的简要介绍(machinelearningmastery.com)
了解LSTM Networks(colah.github.io)
探索LSTM(echen.me)
任何人都可以学习用Python编写LSTM-RNN(iamtrask.github.io)
卷积神经网络(CNN)
引入卷积网络(neuralnetworksanddeeplearning.com)
深度学习和卷积神经网络(medium.com/@ageitgey)
Conv Nets:模块化视角(colah.github.io)
了解卷积(colah.github.io)
递归神经网络(RNN)
循环神经网络教程(wildml.com)
注意和增强的递归神经网络(distill.pub)
回归神经网络的不合理有效性(karpathy.github.io)
强化学习
简单初学者强化学习及其实施指南(analyticsvidhya.com)
强化学习教程(mst.edu)
学习强化学习(wildml.com)
深度强化学习:来自像素的乒乓球(karpathy.github.io)
生成对抗网络(GAN)
对抗机器学习(aaai18adversarial.github.io)
什么是生成性对抗网络?(nvidia.com)
滥用生成对抗网络制作8位像素艺术(medium.com/@ageitgey)
Generative Adversarial Networks简介(TensorFlow中的代码)(aylien.com)
初学者的生成性对抗网络(oreilly.com)
多任务学习
深度神经网络中多任务学习概述(sebastianruder.com)
NLP
自然语言处理很有趣!(medium.com/@ageitgey)
自然语言处理神经网络模型入门(Yoav Goldberg)
自然语言处理权威指南(monkeylearn.com)
自然语言处理简介(algorithmia.com)
自然语言处理教程(vikparuchuri.com)
自然语言处理(几乎)来自Scratch(arxiv.org)
深度学习和NLP
深度学习适用于NLP(arxiv.org)
NLP的深度学习(没有魔法)(Richard Socher)
了解NLP的卷积神经网络(wildml.com)
深度学习,NLP和表示(colah.github.io)
嵌入,编码,参与,预测:最先进的NLP模型的新深度学习公式(explosion.ai)
使用Torch深度神经网络理解自然语言(nvidia.com)
使用Pytorch深度学习NLP(pytorich.org)
单词向量
一袋字满足爆米花袋(kaggle.com)
关于词嵌入第一部分,第二部分,第三部分(sebastianruder.com)
单词向量的惊人力量(acolyer.org)
word2vec参数学习解释(arxiv.org)
Word2Vec教程 - Skip-Gram模型,负抽样(mccormickml.com)
编码器 - 解码器
深度学习和NLP中的注意力和记忆力(wildml.com)
序列模型序列(tensorflow.org)
使用神经网络进行序列学习的序列(NIPS 2014)
机器学习很有趣第五部分:深度学习的语言翻译和序列的魔力(medium.com/@ageitgey)
如何使用编码器 - 解码器LSTM来回显随机整数序列(machinelearningmastery.com)
tf-seq2seq(google.github.io)
Python
机器学习速成课程(google.com)
令人敬畏的机器学习(github.com/josephmisiti)
使用Python掌握机器学习的7个步骤(kdnuggets.com)
一个示例机器学习笔记本(nbviewer.jupyter.org)
使用Python进行机器学习(tutorialspoint.com)
例子
如何在Python中从头开始实现感知器算法(machinelearningmastery.com)
在Python中使用Scratch实现神经网络(wildml.com)
11行Python中的神经网络(iamtrask.github.io)
使用Python实现您自己的k-Nearest Neighbor算法(kdnuggets.com)
来自Scatch的ML(github.com/eriklindernoren)
Python机器学习(第2版)代码库(github.com/rasbt)
Scipy和numpy
Scipy讲义(scipy-lectures.org)
Python Numpy教程(斯坦福CS231n)
Numpy和Scipy简介(UCSB CHE210D)
Python中的科学家速成课程(nbviewer.jupyter.org)
scikit学习
PyCon scikit-learn教程索引(nbviewer.jupyter.org)
scikit-learn分类算法(github.com/mmmayo13)
scikit-learn教程(scikit-learn.org)
简短的scikit-learn教程(github.com/mmmayo13)
Tensorflow
Tensorflow教程(tensorflow.org)
TensorFlow简介 - CPU与GPU(medium.com/@erikhallstrm)
TensorFlow:引物(metaflow.fr)
Tensorflow中的RNN(wildml.com)
在TensorFlow中实现CNN进行文本分类(wildml.com)
如何使用TensorFlow运行文本摘要(surmenok.com)
PyTorch
PyTorch教程(pytorch.org)
PyTorch的温和介绍(gaurav.im)
教程:PyTorch中的深度学习(iamtrask.github.io)
PyTorch示例(github.com/jcjohnson)
PyTorch教程(github.com/MorvanZhou)
PyTorch深度学习研究人员教程(github.com/yunjey)
数学
机器学习数学(ucsc.edu)
机器学习数学(UMIACS CMSC422)
线性代数
线性代数直观指南(betterexplained.com)
程序员对矩阵乘法的直觉(betterexplained.com)
了解Cross产品(betterexplained.com)
了解Dot产品(betterexplained.com)
用于机器学习的线性代数(布法罗大学CSE574)
用于深度学习的线性代数备忘单(medium.com)
线性代数评论与参考(斯坦福CS229)
可能性
用比率理解贝叶斯定理(betterexplained.com)
评论概率论(斯坦福CS229)
机器学习的概率论评论(斯坦福CS229)
概率论(布法罗大学CSE574)
机器学习的概率论(多伦多大学CSC411)
微积分
如何理解衍生物:商数规则,指数和对数(betterexplained.com)
如何理解衍生品:产品,动力和链条规则(betterexplained.com)
矢量微积分:了解渐变(betterexplained.com)
微分学(斯坦福CS224n)
微积分概述(readthedocs.io)