【机器学习】超过200种最佳机器学习—NLP和Python教程(2018版)

本文包含了迄今为止我发现的最佳教程内容。它绝不是网上每个ML相关教程的详尽列表 - 这将是压倒性的和重复的。此外,还有一堆平庸的内容。我的目标是链接到我在机器学习和NLP中的重要子主题上找到的最佳教程。

通过教程,我指的是打算简明扼要地教授概念的介绍性内容。我避免包括具有更广泛覆盖范围的书籍章节和研究论文,这些论文通常在教学概念方面做得不好。为什么不买书呢?当您尝试学习特定的利基主题或想要获得不同的观点时,教程会很有帮助。

我将这篇文章分为四个部分:机器学习NLPPython数学。我在每个部分都包含了一些主题,但考虑到材料的广泛性,我不可能包含所有可能的主题。

如果有很好的教程你知道我错过了,请告诉我!我试图将每个主题限制为五到六个教程,因为除此之外还有重复性。每个链接应该具有与其他链接不同的材料或以不同的方式呈现信息(例如,代码与幻灯片与长形式)或从不同的角度。

 

机器学习

从机器学习入手(machinelearningmastery.com)

机器学习很有趣!(medium.com/@ageitgey)

机器学习规则:ML工程的最佳实践(martin.zinkevich.org)

机器学习速成课程:第一部分第二部分第三部分(伯克利机器学习)

机器学习理论及其应用简介:带示例的视觉教程(toptal.com)

机器学习的温和指南(monkeylearn.com)

我应该使用哪种机器学习算法?(sas.com)

机器学习入门(sas.com)

初学者机器学习教程(kaggle.com/kanncaa1)

 

激活和丢失功能

Sigmoid神经​​元(neuralnetworksanddeeplearning.com)

激活函数在神经网络中的作用是什么?(quora.com)

具有优缺点的神经网络中激活函数的综合列表(stats.stackexchange.com)

激活功能及其类型 - 哪个更好?(medium.com)

理解对数损失(exegetic.biz)

损失函数(斯坦福CS231n)

L1与L2损失函数(rishy.github.io)

交叉熵成本函数(neuralnetworksanddeeplearning.com)

 

偏压

偏差在神经网络中的作用(stackoverflow.com)

神经网络中的偏置节点(makeyourownneuralnetwork.blogspot.com)

什么是人工神经网络的偏见?(quora.com)

 

感知

感知器(neuralnetworksanddeeplearning.com)

感知(natureofcode.com)

单层神经网络(感知器)(dcu.ie)

从Perceptrons到Deep Networks(toptal.com)

 

回归

线性回归分析介绍(duke.edu)

线性回归(ufldl.stanford.edu)

线性回归(readthedocs.io)

Logistic回归(readthedocs.io)

机器学习的简单线性回归教程(machinelearningmastery.com)

机器学习的Logistic回归教程(machinelearningmastery.com)

Softmax回归(ufldl.stanford.edu)

梯度下降

用梯度下降学习(neuralnetworksanddeeplearning.com)

渐变下降(iamtrask.github.io)

如何理解梯度下降算法(kdnuggets.com)

梯度下降优化算法概述(sebastianruder.com)

优化:随机梯度下降(斯坦福CS231n)

生成学习

生成学习算法(斯坦福CS229)

朴素贝叶斯分类器(monkeylearn.com)的实用解释

支持向量机

支持向量机(SVM)简介(monkeylearn.com)

支持向量机(斯坦福CS229)

线性分类:支持向量机,Softmax(Stanford 231n)

反向传播

是的你应该了解 backprop(medium.com/@karpathy)

你能给出神经网络反向传播算法的直观解释吗?(github.com/rasbt)

反向传播算法的工作原理(neuralnetworksanddeeplearning.com)

通过时间反复传播和消失的渐变(wildml.com)

时间反向传播的温和介绍(machinelearningmastery.com)

反向传播,直觉(斯坦福CS231n)

深度学习

YN²深度学习指南(yerevann.com)

深度学习论文阅读路线图(github.com/floodsung)

坚果中的深度学习(nikhilbuduma.com)

深度学习教程(Quoc V. Le)

什么是深度学习?(machinelearningmastery.com)

人工智能,机器学习和深度学习之间有什么区别?(nvidia.com)

深度学习 - 直接涂料(gluon.mxnet.io)

优化和降维

数据维数减少的七种技术(knime.org)

主成分分析(斯坦福CS229)

辍学:一种改善神经网络的简单方法(Hinton @ NIPS 2012)

如何训练您的深度神经网络(rishy.github.io)

长期短期记忆(LSTM)

专家对长短期记忆网络的简要介绍(machinelearningmastery.com)

了解LSTM Networks(colah.github.io)

探索LSTM(echen.me)

任何人都可以学习用Python编写LSTM-RNN(iamtrask.github.io)

卷积神经网络(CNN)

引入卷积网络(neuralnetworksanddeeplearning.com)

深度学习和卷积神经网络(medium.com/@ageitgey)

Conv Nets:模块化视角(colah.github.io)

了解卷积(colah.github.io)

递归神经网络(RNN)

循环神经网络教程(wildml.com)

注意和增强的递归神经网络(distill.pub)

回归神经网络的不合理有效性(karpathy.github.io)

深入了解回归神经网络(nikhilbuduma.com)

强化学习

简单初学者强化学习及其实施指南(analyticsvidhya.com)

强化学习教程(mst.edu)

学习强化学习(wildml.com)

深度强化学习:来自像素的乒乓球(karpathy.github.io)

生成对抗网络(GAN)

对抗机器学习(aaai18adversarial.github.io)

什么是生成性对抗网络?(nvidia.com)

滥用生成对抗网络制作8位像素艺术(medium.com/@ageitgey)

Generative Adversarial Networks简介(TensorFlow中的代码)(aylien.com)

初学者的生成性对抗网络(oreilly.com)

多任务学习

深度神经网络中多任务学习概述(sebastianruder.com)

 

NLP

自然语言处理很有趣!(medium.com/@ageitgey)

自然语言处理神经网络模型入门(Yoav Goldberg)

自然语言处理权威指南(monkeylearn.com)

自然语言处理简介(algorithmia.com)

自然语言处理教程(vikparuchuri.com)

自然语言处理(几乎)来自Scratch(arxiv.org)

深度学习和NLP

深度学习适用于NLP(arxiv.org)

NLP的深度学习(没有魔法)(Richard Socher)

了解NLP的卷积神经网络(wildml.com)

深度学习,NLP和表示(colah.github.io)

嵌入,编码,参与,预测:最先进的NLP模型的新深度学习公式(explosion.ai)

使用Torch深度神经网络理解自然语言(nvidia.com)

使用Pytorch深度学习NLP(pytorich.org)

单词向量

一袋字满足爆米花袋(kaggle.com)

关于词嵌入第一部分第二部分第三部分(sebastianruder.com)

单词向量的惊人力量(acolyer.org)

word2vec参数学习解释(arxiv.org)

Word2Vec教程 -  Skip-Gram模型负抽样(mccormickml.com)

编码器 - 解码器

深度学习和NLP中的注意力和记忆力(wildml.com)

序列模型序列(tensorflow.org)

使用神经网络进行序列学习的序列(NIPS 2014)

机器学习很有趣第五部分:深度学习的语言翻译和序列的魔力(medium.com/@ageitgey)

如何使用编码器 - 解码器LSTM来回显随机整数序列(machinelearningmastery.com)

tf-seq2seq(google.github.io)

 

Python

机器学习速成课程(google.com)

令人敬畏的机器学习(github.com/josephmisiti)

使用Python掌握机器学习的7个步骤(kdnuggets.com)

一个示例机器学习笔记本(nbviewer.jupyter.org)

使用Python进行机器学习(tutorialspoint.com)

例子

如何在Python中从头开始实现感知器算法(machinelearningmastery.com)

在Python中使用Scratch实现神经网络(wildml.com)

11行Python中的神经网络(iamtrask.github.io)

使用Python实现您自己的k-Nearest Neighbor算法(kdnuggets.com)

来自Scatch的ML(github.com/eriklindernoren)

Python机器学习(第2版)代码库(github.com/rasbt)

Scipy和numpy

Scipy讲义(scipy-lectures.org)

Python Numpy教程(斯坦福CS231n)

Numpy和Scipy简介(UCSB CHE210D)

Python中的科学家速成课程(nbviewer.jupyter.org)

scikit学习

PyCon scikit-learn教程索引(nbviewer.jupyter.org)

scikit-learn分类算法(github.com/mmmayo13)

scikit-learn教程(scikit-learn.org)

简短的scikit-learn教程(github.com/mmmayo13)

Tensorflow

Tensorflow教程(tensorflow.org)

TensorFlow简介 - CPU与GPU(medium.com/@erikhallstrm)

TensorFlow:引物(metaflow.fr)

Tensorflow中的RNN(wildml.com)

在TensorFlow中实现CNN进行文本分类(wildml.com)

如何使用TensorFlow运行文本摘要(surmenok.com)

PyTorch

PyTorch教程(pytorch.org)

PyTorch的温和介绍(gaurav.im)

教程:PyTorch中的深度学习(iamtrask.github.io)

PyTorch示例(github.com/jcjohnson)

PyTorch教程(github.com/MorvanZhou)

PyTorch深度学习研究人员教程(github.com/yunjey)

 

数学

机器学习数学(ucsc.edu)

机器学习数学(UMIACS CMSC422)

线性代数

线性代数直观指南(betterexplained.com)

程序员对矩阵乘法的直觉(betterexplained.com)

了解Cross产品(betterexplained.com)

了解Dot产品(betterexplained.com)

用于机器学习的线性代数(布法罗大学CSE574)

用于深度学习的线性代数备忘单(medium.com)

线性代数评论与参考(斯坦福CS229)

可能性

用比率理解贝叶斯定理(betterexplained.com)

评论概率论(斯坦福CS229)

机器学习的概率论评论(斯坦福CS229)

概率论(布法罗大学CSE574)

机器学习的概率论(多伦多大学CSC411)

微积分

如何理解衍生物:商数规则,指数和对数(betterexplained.com)

如何理解衍生品:产品,动力和链条规则(betterexplained.com)

矢量微积分:了解渐变(betterexplained.com)

微分学(斯坦福CS224n)

微积分概述(readthedocs.io)

 

 

原文:https://medium.com/machine-learning-in-practice/over-200-of-the-best-machine-learning-nlp-and-python-tutorials-2018-edition-dd8cf53cb7dc

 

 

 

 

 

 

 

 

 

 

猜你喜欢

转载自blog.csdn.net/ChenVast/article/details/81381684