深度学习笔记-持续更新

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/weixin_38500014/article/details/79174711


深度学习算法:
过去几年以来,深度学习(简称 DL)架构及算法已经在图像识别与自然语言处理(NLP)、数据科学、机器学习和预测分析领域领域取得了令人印象深刻的进展




TPU/CPU/GPU:深度学习芯片,因为复杂的深度学习网络需要同时进行数百万次计算,耗能会变成一个严重问题。


TPU:巨头谷歌,使用 TPU 代表了谷歌为其人工智能服务设计专用硬件迈出的第一步,为特定人工智能任务制造更多的专用处理器很可能成为未来的趋势。
尽管在一些应用上利用率很低,但 TPU 平均比当前的 GPU 或 CPU 快15~30倍,性能功耗比高出约 30~80 倍”
李世石大战 AlphaGo 时,TPU 也在应用之中,并且谷歌将 TPU 称之为 AlphaGo 击败李世石的“秘密武器




CPU:巨头英特尔,中央处理器(CPU)能够非常高效地处理各种计算任务。但 CPU 的局限是一次只能处理相对来说很少量的任务


GPU:巨头英伟达,图像处理单元(GPU)在执行单个任务时效率较低,而且所能处理的任务范围更小。强大之处在于它们能够同时执行许多任务。例如,如果你需要乘3个浮点数,CPU 会强过 GPU;但如果你需要做100万次3个浮点数的乘法,那么 GPU 会碾压 CPU










1-人工智能需要加速计算。在摩尔定律放缓的时代,加速器提供了深度学习重要的数据处理需求
2-张量处理是深度学习训练和推理性能的核心
3-张量处理是企业在构建现代数据中心时必须重点考虑的新工作量(wordload)
4-加速张量处理可以大大降低修建现代数据中心的成本
























数据少:用归纳法
  数据多:机器学习算法
  机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
  
  它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。
  
1.决策树
2.随机森林算法
3.逻辑回归
4.SVM
5.朴素贝叶斯
6.K最近邻算法
7.K均值算法
8.Adaboost 算法
9.神经网络
10.马尔可夫
  
  随机森林算法
  在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定
  
  决策树是一种基本的分类器,一般是将特征分为两类
  
  那随机森林具体如何构建呢?有两个方面:1数据的随机性选取,2待选特征的随机选取。
  1.如果随机森林中包含三个决策树,两个决策树分类结果为A,一个决策树分类结果为B,则随机森林的分类结果为A.
  2.子树的每一个分裂过程并未用到所有的待选特征,而是从所有的待选特征中随机选取一定的特征,之后再在随机选取的特征中选取最优的特征。这样能够使得随机森林中的决策树都能够彼此不同,提升系统的多样性,从而提升分类性能。
  
  分类器:分类器就是给定一个样本的数据,判定这个样本属于哪个类别的算法。例如在股票涨跌预测中,我们认为前一天的交易量和收盘价对于第二天的涨跌是有影响的,那么分类器就是通过样本的交易量和收盘价预测第二天的涨跌情况的算法。


  分裂:在决策树的训练过程中,需要一次次的将训练数据集分裂成两个子数据集,这个过程就叫做分裂。


  特征:在分类问题中,输入到分类器中的数据叫做特征。以上面的股票涨跌预测问题为例,特征就是前一天的交易量和收盘价。


  待选特征:在决策树的构建过程中,需要按照一定的次序从全部的特征中选取特征。待选特征就是在目前的步骤之前还没有被选择的特征的集合。例如,全部的特征是 ABCDE,第一步的时候,待选特征就是ABCDE,第一步选择了C,那么第二步的时候,待选特征就是ABDE。


  分裂特征:接待选特征的定义,每一次选取的特征就是分裂特征,例如,在上面的例子中,第一步的分裂特征就是C。因为选出的这些特征将数据集分成了一个个不相交的部分,所以叫它们分裂特征。
  
  
  
  
  
  
  
  
  
推荐算法大致可以分为以下几类:
基于流行度的算法
协同过滤算法
基于内容的算法
基于模型的算法
混合算法
  
  
  
  
  
  
  
  打分用的分类,权重和系数
  
  
  协同过滤推荐算法
  1.向量之间的相似度
  度量向量之间的相似度方法很多了,你可以用距离(各种距离)的倒数,向量夹角,Pearson相关系数等
  Pearson相关系数有个特点,它在计算两个数列的相似度时忽略其平均值的差异。比如说有的用户对商品评分普遍偏低,有的用户评分普遍偏高,而实际上他们具有相同的爱好,他们的Pearson相关系数会比较高。用户1对某一个商品的评分是X=(1,2,3),用户2对这三个商品的评分是Y=(4,5,6),则X和Y的Pearson相关系数是0.865,相关性还是挺高的。
  
  2.基于用户的协同过滤
  tep1.如果用户i对项目j没有评过分,就找到与用户i最相似的K个邻居(采用Pearson相关系数)
  step2.然后用这K个邻居对项目j的评分的加权平均来预测用户i对项目j的评分。
  
  3.基于物品的协同过滤
  step1.如果用户i对项目j没有评过分,就把ri,jri,j置为0。找到与物品j最相似的k个近邻(采用余弦距离)
  step2.然后用这K个邻居对项目j的评分的加权平均来预测用户i对项目j的评分。
  
  4.混合协同过滤
  所谓的混合算法,主体思路还是基于用户的协同过滤,只是在计算两个用户的相似度时又嵌套了item-based CF思想。
  
  
  
  
  
  
  
  
  
  
  
  什么样的资料不适合用深度学习?


1)数据集太小,因为神经网络有效的关键就是大量的数据,有大量的参数需要训练,少量的数据不能充分训练参数。2)数据集没有局部相关性。目前深度学习应用的领域主要是图像、语音、自然语言处理,这些领域的共性就是局部相关性。例如:图像中的像素组成物体,语音中的音位组成单词,文本数据中的单词组成句子,而深度学习的本质就是学习局部低层次的特征,然后组合低层次的特征成高层次的特征,得到不同特征之间的空间相关性。

猜你喜欢

转载自blog.csdn.net/weixin_38500014/article/details/79174711