本文包含了迄今为止大家公认的最佳教程内容。它绝不是网上每个ML干系教程的详尽列表,而是经由精挑细选而成的,毕竟网上的东西并不全是好的。我作者汇总的目标是为了补充我即将出版的新书,为它探求在机器学习和NLP领域中找到的最佳教程。
通过这些最佳教程的汇总,我可以快速的找到我想要得到的教程。从而避免了阅读更广泛覆盖范围的书本章节和苦恼的研究论文,你大概知道,当你的数学功底不是很好的时候这些论文你常日是拿不下的。为什么不买书呢?没有哪一个作者是一个全能师长西席。当你考试测验学习特定的主题或想要得到不同的不雅观点时,教程可能是非常有帮助的。
我将这篇文章分为四个部分:机器学习,NLP,Python和数学。我在每个部分都包含了一些主题,但由于机器学习是一个非常繁芜的学科,我不可能包含所有可能的主题。
如果有很好的教程你知道我错过了,请见告我!
我将连续完善这个学习教程。我在挑选这些链接的时候,都试图担保每个链接应该具有与其他链接不同的材料或以不同的办法呈现信息(例如,代码与幻灯片)或从不同的角度。
机器学习
从机器学习入手(machinelearningmastery.com)
机器学习很有趣!
(medium.com/@ageitgey)
机器学习规则:ML工程的最佳实践(martin.zinkevich.org)
机器学习速成课程:第一部分,第二部分,第三部分(伯克利机器学习)
机器学习理论及其运用简介:用一个小例子进行视觉教程(toptal.com)
机器学习的大略指南(monkeylearn.com)
我该当利用哪种机器学习算法?(sas.com)
机器学习入门(sas.com)
初学者机器学习教程(kaggle.com/kanncaa1)
激活函数和Dropout函数
Sigmoid神经元(neuralnetworksanddeeplearning.com)
激活函数在神经网络中的浸染是什么?(quora.com)
神经网络中常见的激活函数的优缺陷比较列表(stats.stackexchange.com)
激活函数及其类型比拟(medium.com)
理解对数丢失(exegetic.biz)
丢失函数(斯坦福CS231n)
L1与L2丢失函数(rishy.github.io)
交叉熵本钱函数(neuralnetworksanddeeplearning.com)
偏差(bias)
偏差在神经网络中的浸染(stackoverflow.com)
神经网络中的偏差节点(makeyourownneuralnetwork.blogspot.com)
什么是人工神经网络的偏差?(quora.com)
感知器
感知器(neuralnetworksanddeeplearning.com)
感知器(natureofcode.com)
单层神经网络(感知器)(dcu.ie)
从Perceptrons到Deep Networks(toptal.com)
回归
线性回归剖析先容(duke.edu)
线性回归(ufldl.stanford.edu)
线性回归(readthedocs.io)
Logistic回归(readthedocs.io)
机器学习的大略线性回归教程(machinelearningmastery.com)
机器学习的Logistic回归教程(machinelearningmastery.com)
Softmax回归(ufldl.stanford.edu)
梯度低落
在梯度低落中学习(neuralnetworksanddeeplearning.com)
梯度低落(iamtrask.github.io)
如何理解梯度低落算法(kdnuggets.com)
梯度低落优化算法概述(sebastianruder.com)
优化:随机梯度低落(斯坦福CS231n)
天生学习(Generative Learning)
天生学习算法(斯坦福CS229)
朴素贝叶斯分类器的实用阐明(monkeylearn.com)
支持向量机
支持向量机(SVM)简介(monkeylearn.com)
支持向量机(斯坦福CS229)
线性分类:支持向量机,Softmax(Stanford 231n)
反向传播
你该当理解的backprop(medium.com/@karpathy)
你能给入迷经网络反向传播算法的直不雅观阐明吗?(github.com/rasbt)
反向传播算法的事情事理(neuralnetworksanddeeplearning.com)
通过韶光反向传播和消逝的渐变(wildml.com)
韶光反向传播的大略先容(machinelearningmastery.com)
反向传播,直觉(斯坦福CS231n)
深度学习
YN²深度学习指南(yerevann.com)
深度学习论文阅读路线图(github.com/floodsung)
Nutshell中的深度学习(nikhilbuduma.com)
深度学习教程(Quoc V.Le)
什么是深度学习?(machinelearningmastery.com)
人工智能,机器学习和深度学习之间有什么差异?(nvidia.com)
深度学习–大略先容 (gluon.mxnet.io)
最优化和降维
数据降维减少的七种技能(knime.org)
主身分剖析(斯坦福CS229)
Dropout:一种改进神经网络的大略方法(Hinton @ NIPS 2012)
如何演习你的深度神经网络?(rishy.github.io)
是非期影象(LSTM)
是非期影象网络的普通先容(machinelearningmastery.com)
理解LSTM 神经网络Networks(colah.github.io)
探索LSTM(echen.me)
任何人都可以学习用Python编写LSTM-RNN(iamtrask.github.io)
卷积神经网络(CNN)
卷积网络先容(neuralnetworksanddeeplearning.com)
深度学习和卷积神经网络(medium.com/@ageitgey)
Conv Nets:模块化视角(colah.github.io)
理解卷积(colah.github.io)
递归神经网络(RNN)
递归神经网络教程(wildml.com)
把稳和增强的递归神经网络(distill.pub)
递归神经网络的不合理有效性(karpathy.github.io)
深入理解递归神经网络(nikhilbuduma.com)
强化学习
强化学习初学者入门及实在行指南(analyticsvidhya.com)
强化学习教程(mst.edu)
学习强化学习(wildml.com)
深度强化学习:来自像素的乒乓球(karpathy.github.io)
天生对抗网络(GAN)
对抗机器学习简介(aaai18adversarial.github.io)
什么是天生性对抗网络?(nvidia.com)
滥用天生对抗网络制作8位像素艺术(medium.com/@ageitgey)
Generative Adversarial Networks简介(TensorFlow中的代码)(aylien.com)
初学者的天生对抗网络(oreilly.com)
多任务学习
深度神经网络中多任务学习概述(sebastianruder.com)
NLP
自然措辞处理很有趣!
(medium.com/@ageitgey)
自然措辞处理神经网络模型入门(Yoav Goldberg)
自然措辞处理威信指南(monkeylearn.com)
自然措辞处理简介(algorithmia.com)
自然措辞处理教程(vikparuchuri.com)
自然措辞处理(NLP)来自Scratch(arxiv.org)
深度学习和NLP
深度学习适用于NLP(arxiv.org)
NLP的深度学习(没有邪术)(Richard Socher)
理解NLP的卷积神经网络(wildml.com)
深度学习、NLP、表示(colah.github.io)
最前辈的NLP模型的新深度学习公式:嵌入、编码、参与、预测(explosion.ai)
利用Torch深度神经网络进行自然措辞处理(nvidia.com)
利用Pytorch进行深度学习NLP(pytorich.org)
词向量
利用词袋模型办理电影评论分类(kaggle.com)
词嵌入先容第一部分,第二部分,第三部分(sebastianruder.com)
词向量的惊人力量(acolyer.org)
word2vec参数学习阐明(arxiv.org)
Word2Vec教程- Skip-Gram模型,负抽样(mccormickml.com)
编码器-解码器
深度学习和NLP中的把稳力机制和影象力模型(wildml.com)
序列模型(tensorflow.org)
利用神经网络进行序列学习(NIPS 2014)
机器学习很有趣第五部分:深度学习的措辞翻译和序列的魔力(medium.com/@ageitgey)
如何利用编码器-解码器LSTM来回显随机整数序列(machinelearningmastery.com)
tf-seq2seq(google.github.io)
Python
机器学习速成课程(google.com)
令人敬畏的机器学习(github.com/josephmisiti)
利用Python节制机器学习的7个步骤(kdnuggets.com)
一个示例机器学习条记(nbviewer.jupyter.org)
利用Python进行机器学习(tutorialspoint.com)
实战案例
如何在Python中从头开始实现感知器算法(machinelearningmastery.com)
在Python中利用Scratch实现神经网络(wildml.com)
利用11行代码在Python中实现神经网络(iamtrask.github.io)
利用Python实现你自己的k-Nearest Neighbor算法(kdnuggets.com)
来自Scatch的ML(github.com/eriklindernoren)
Python机器学习(第2版)代码库(github.com/rasbt)
Scipy和numpy
Scipy讲义(scipy-lectures.org)
Python Numpy教程(斯坦福CS231n)
Numpy和Scipy简介(UCSB CHE210D)
Python中的科学家速成课程(nbviewer.jupyter.org)
scikit学习
PyCon scikit-learn教程索引(nbviewer.jupyter.org)
scikit-learn分类算法(github.com/mmmayo13)
scikit-learn教程(scikit-learn.org)
简短的scikit-learn教程(github.com/mmmayo13)
Tensorflow
Tensorflow教程(tensorflow.org)
TensorFlow简介 - CPU与GPU(medium.com/@erikhallstrm)
TensorFlow(metaflow.fr)
Tensorflow中的RNN(wildml.com)
在TensorFlow中实现CNN进行文本分类(wildml.com)
如何利用TensorFlow运行文本择要(surmenok.com)
PyTorch
PyTorch教程(pytorch.org)
PyTorch的大略先容(gaurav.im)
教程:PyTorch中的深度学习(iamtrask.github.io)
PyTorch示例(github.com/jcjohnson)
PyTorch教程(github.com/MorvanZhou)
深度学习研究职员的PyTorch教程(github.com/yunjey)
数学
机器学习数学(ucsc.edu)
机器学习数学(UMIACS CMSC422)
线性代数
线性代数直不雅观指南(betterexplained.com)
程序员对矩阵乘法的直觉(betterexplained.com)
理解Cross产品(betterexplained.com)
理解Dot产品(betterexplained.com)
用于机器学习的线性代数(布法罗大学CSE574)
用于深度学习的线性代数备忘单(medium.com)
线性代数评论与参考(斯坦福CS229)
概率论
用比率理解贝叶斯定理(betterexplained.com)
概率论入门(斯坦福CS229)
机器学习的概率论教程(斯坦福CS229)
概率论(布法罗大学CSE574)
机器学习的概率论(多伦多大学CSC411)
微积分
如何理解导数:商数规则,指数和对数(betterexplained.com)
如何理解导数:产品,动力和链条规则(betterexplained.com)
矢量微积分:理解渐变(betterexplained.com)
微分学(斯坦福CS224n)
微积分概述(readthedocs.io)
本文由阿里如斯栖社区组织翻译。
文章原标题《over-200-of-the-best-machine-learning-nlp-and-python-tutorials-2018-edition》
作者:Robbie Allen
译者:虎说八道,审校:。