统计学习方法--思想

1,NFL果我们对要解决的问题一无所知且并假设其分布完全随机且平等,那么任何算法的预期性能都是相似的。避免盲目的算法崇拜脱离具体问题,空泛的谈‘什么学习算法更好’毫无意义。

2 ,如果两个模型A和B对数据的解释能力完全相同,那么选择较为简单的那个模型。

3,集成学习,集成学习将多个较弱的机器学习(臭皮匠)模型合并起来来一起决策(诸葛亮)

4,思路1:每个子学习器都是分类器,在融合后达成为一个强力的主体。代表算法:随机森林

    每个子学习器都是分类器,融合过程中可能:

    思路2(强中取强):选择最强的那一个。代表算法:dynamic classifier selection

    思路3 (公平选择):一视同仁的对待每个子学习器,融合出一个更强的主体。代表算法:stacking

5. 频率学派(Frequentism)和贝叶斯学派(Bayesian) - 不可知论

频率学派相信参数是客观存在的,虽然未知,但不会改变。因此频率学派的方法一直都是试图估计“哪个值最接近真实值”相对应的我们使用最大似然估计(Maximum Likelihood 置信区间(Confidence Level), 和p-value。因此这一切都是体现我们对于真实值估算的自信和可靠度。

而贝叶斯学派相信参数不是固定的,我们需要发生过的事情来推测参数这也是为什么总和先验(Prior)及后验(Posterior)过不去,才有了最大后验(Maximum a Posteriori)即MAP。贝叶斯学派最大的优势在于承认未知(Uncertainty)的存在,因此感觉更符合我们的常识“不可知论”。不少统计学出身的人倾向于频率学派而机器学习出身的人更倾向于贝叶斯学派

猜你喜欢

转载自blog.csdn.net/heavenpeien/article/details/80190716
今日推荐