《深入理解机器学习 从原理到算法》 高清PDF 百度网盘 下载分享

《深入理解机器学习  从原理到算法》 高清PDF 百度网盘 下载分享

下载地址:网盘下载

提取密码:m3hw

目录

Understanding Machine Learning:From Theory to Algorithms

出版者的话

译者序

前言

致谢

第1章引论1

11什么是学习1

12什么时候需要机器学习2

13学习的种类3

14与其他领域的关系4

15如何阅读本书4

16符号6

第一部分理论基础

第2章简易入门10

21一般模型——统计学习理论框架10

22经验风险最小化11

23考虑归纳偏置的经验风险最小化12

24练习15

第3章一般学习模型17

31PAC学习理论17

32更常见的学习模型18

321放宽可实现假设——不可知PAC学习18

322学习问题建模19

33小结21

34文献评注21

35练习21

第4章学习过程的一致收敛性24

41一致收敛是可学习的充分条件24

42有限类是不可知PAC可学习的25

43小结26

44文献评注27

45练习27

第5章偏差与复杂性权衡28

51“没有免费的午餐”定理28

52误差分解31

53小结31

54文献评注32

55练习32

第6章VC维33

61无限的类也可学习33

62VC维概述34

63实例35

631阈值函数35

632区间35

633平行于轴的矩形35

634有限类36

635VC维与参数个数36

64PAC学习的基本定理36

65定理67的证明37

651Sauer引理及生长函数37

652有小的有效规模的类的一致收敛性39

66小结40

67文献评注41

68练习41

第7章不一致可学习44

71不一致可学习概述44

72结构风险最小化46

73最小描述长度和奥卡姆剃刀48

74可学习的其他概念——一致收敛性50

75探讨不同的可学习概念51

76小结53

77文献评注53

78练习54

第8章学习的运行时间56

81机器学习的计算复杂度56

82ERM规则的实现58

821有限集58

822轴对称矩形59

823布尔合取式59

824学习三项析取范式60

83高效学习,而不通过合适的ERM60

84学习的难度*61

85小结62

86文献评注62

87练习62

第二部分从理论到算法

第9章线性预测66

91半空间66

911半空间类线性规划67

912半空间感知器68

913半空间的VC维69

92线性回归70

921最小平方70

922多项式线性回归71

93逻辑斯谛回归72

94小结73

95文献评注73

96练习73

第10章boosting75

101弱可学习75

102AdaBoost78

103基础假设类的线性组合80

104AdaBoost用于人脸识别82

105小结83

106文献评注83

107练习84

第11章模型选择与验证85

111用结构风险最小化进行模型选择85

112验证法86

1121留出的样本集86

1122模型选择的验证法87

1123模型选择曲线88

1124k折交叉验证88

1125训练验证测试拆分89

113如果学习失败了应该做什么89

114小结92

115练习92

第12章凸学习问题93

121凸性、利普希茨性和光滑性93

1211凸性93

1212利普希茨性96

1213光滑性97

122凸学习问题概述98

1221凸学习问题的可学习性99

1222凸利普希茨/光滑有界学习问题100

123替代损失函数101

124小结102

125文献评注102

126练习102

第13章正则化和稳定性104

131正则损失最小化104

132稳定规则不会过拟合105

133Tikhonov正则化作为稳定剂106

1331利普希茨损失108

1332光滑和非负损失108

134控制适合与稳定性的权衡109

135小结111

136文献评注111

137练习111

第14章随机梯度下降114

141梯度下降法114

142次梯度116

1421计算次梯度117

1422利普希茨函数的次梯度118

1423次梯度下降118

143随机梯度下降118

144SGD的变型120

1441增加一个投影步120

1442变步长121

1443其他平均技巧121

1444强凸函数*121

145用SGD进行学习123

1451SGD求解风险极小化123

1452SGD求解凸光滑学习问题的分析124

1453SGD求解正则化损失极小化125

146小结125

147文献评注125

148练习126

第15章支持向量机127

151间隔与硬SVM127

......

猜你喜欢

转载自blog.csdn.net/u012199550/article/details/89551348