人工智能第二章:什么是人工智能

1 什么是人工智能

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
约翰·麦卡锡给出的定义

  1. 构建智能机器,特别是智能计算机程序的科学和工程。
  2. 人工智能是一种让计算机程序能够“智能的”思考的方式。
  3. 思考的模式类似于人类。
    智能和智力是有区别的:智能包含智力,智力表现计算能力(聪明程度)

人工智能研究方向:

  1. 计算机视觉
  2. 自然语言处理
  3. 数据挖掘分析
  4. 综合应用
    无人驾驶
    机器人
    行业AI赋能(量化)

1.1 怎么样算有智能呢?

  1. 可以根据环境变化而做出相应变化的能力。
  2. 具有“存活”的最基本动因(求生欲)。
  3. 自主能力,自我意识,等等。

1.2 图灵测试

图灵在1950年提出了一个关于判断机器是否足够智能的著名实验(turing test)
在这里插入图片描述
图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。

进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。图灵测试一词来源于计算机科学和密码学的先驱艾伦·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。

1.3 需要的基础

最基本的是数学,微分积分、高等代数、统计学、概率论等等,甚至还需要有社会科学,心理学等等。

1.4 人工智能简史

  1. 1943年人工神经网络概念被提出,Artificial Neural Network,神经网络计算模型出现。
  2. 1956年约翰·麦卡锡 发起达特茅斯会议(定义AI,Artificial Intelligence) ,标志AI正式诞生。
  3. 1957年提出感知器,一种最简单的人工神经网络,是生物神经网络机制的简单抽象,将人工智能推向第一个高峰。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    1970年后的十几年人工智能第一个寒冬,传统感知器耗费的计算量和神经元数目的平方成正比,当时的计算机计算能力远达不到这个水平。
    1982年提出霍普菲尔德神经网络,一种递归神经网络(根据回执反复计算),具有反馈机制(feed back)
    在这里插入图片描述
    1974年提出反向传播(back propagation)算法,没有收到重视。
    1986年重新提出完整算法(BP算法)使大规模神经网络训练成为可能,将人工智能推向第二个高峰。
    1990年开始人工智能第二个寒冬,美国政府因为Darpa项目失败,缩减投入。
    2006年提出深度学习(deep learning)指多层神经网络。同时进入感知智能时代(语音和图像识别)
    人工智能时代划分:
    运算智能、感知智能、认知智能
    2016年AlphaGo又一次掀起人工智能浪潮Google收购DeepMind公司的AlphaGo(基于TensorFlow)
    人工智能知识图谱:
    在这里插入图片描述

2 什么是机器学习

机器学习是实现人工智能的一种方法,深度学习是机器学习的一个分支
在这里插入图片描述

2.1 什么是学习?

学习是一个过程:一个系统,通过执行某一个程序,改善其性能的动作。
学习的目的是“减熵”(熵:混乱程度,热力学第二定律:一个独立系统,倾向于自动增加熵)

2.2 机器学习的必要性

解决人工编程无法完成的任务。比如图像识别,自动驾驶等等。
人有状态好坏的差别,机器没有,不用容易犯错。
机器计算能力在某些维度远大于人类。

2.3 机器学习的概念

对某类任务T(Task)和性能P(Performance)通过经验E(Experience)改进后,在T上由性能度量P衡量的性能有所提升。
在这里插入图片描述

2.4 传统编程和机器学习的区别

在这里插入图片描述
训练猫握手,发出指令,对了给奖励,错了没有奖励。通过数据和结果希望猫学习到握手这个程序。
机器学习的目的就是通过数据和结果找到一个好的函数(function)

2.5 机器学习的分类

监督学习(分类,带标签)
在这里插入图片描述
非监督学习(聚类,没有标签)
在这里插入图片描述
半监督学习(聚类,部分带标签)
强化学习(基于奖励推动学习)

2.6 机器学习相关算法

在这里插入图片描述

2.7 机器学习算法选型

分为四大类:分类,聚类,回归,降维
首先判断样本数量,大于50继续,不足需要收集更多数据
然后判断数据是否有类别,有类别备选分类和聚类,否则备选回归和降维
如果有类别,判断是否有标签,有标签分类,无标签聚类
没有类别时,判断是否需要预测数值,是回归,否降维
在这里插入图片描述
机器学习词汇
节点
predicting a category:预测类别
predicting a quantity:预测数值
labeled data:是否数据打过标签
回归
SGD Regressor:随机梯度下降回归
Lasso/ElasticNet Lasso:弹性网络 回归
SVR (kernel=‘linear’):支持向量机回归使用线性函数作为核函数
SVR (kernel=‘rbf’):支持向量机回归使用径向基函数
RidgeRegressor:岭回归
分类
Linear SVC:线性支持向量机分类
Navie Bayes:朴素贝叶斯
KNeighbors Classifier:K近邻分类器
SVC:支持向量机分类器
SGD Classifier:随机梯度下降分类器
kernel approximation:核近似方法
聚类
MiniBatch KMeans:最小族(束)KMeans
KMeans:传统KMeans
Spectral Clustering:谱聚类
GMM:混合高斯模型
VBGMM:VB混合高斯模型

2.8 机器学习步骤

  1. 收集数据
  2. 准备数据
  3. 选择/建立模型
  4. 训练模型
  5. 测试模型(如成功则在此停止)
  6. 调节参数
    关键点:建模、评估、调优

2.9 其他概念

2.9.1 过拟合

欠拟合Underfitting
拟合完美fitting right
过拟合overfitting

回归中的体现
在这里插入图片描述
分类中的体现
在这里插入图片描述

2.9.2 解决过拟合的方法

降低数据量,减少不必要的数据降低拟合度。
正则化(代数几何),约束经验误差函数,引导函数向误差减小方向。
Dropout,训练时随机去除某些神经元,测试时使用全部神经元,达到泛化模型,防止过拟合。

在这里插入图片描述

3 什么是深度学习

3.1 概念

简而言之就是基于深度(多层隐藏层)神经网络的学习。
在这里插入图片描述
在这里插入图片描述

3.2 使用深度学习的必要条件

大量数据:图中看到数据量越大,效果越好
强计算力:强的计算力能使不可能变为可能,CPU、GPU、TPU、云计算
复杂模型:隐藏层越多效果越好

3.3 深度学习的过程总结

正向传播—计算误差(loss)—反向传播(BP)—调整权重(weight)
除了调参(权重)以外还有dropout

猜你喜欢

转载自blog.csdn.net/dcc15011003101/article/details/107032188