机器学习 之 线性回归 选择题总结

线性回归

1、多元线性回归中的“线性”是指什么是线性的
A.因变量
B.系数
C.因变量
D.误差
答案:A

2、欠拟合的产生原因有
A学习到数据的特征过少
B学习到数据的特征过多
C学习到错误数据
D机器运算错误
答案:A

3、线性回归的核心是()
A. 构建模型
B. 距离度量
C. 参数学习
D. 特征提取
答案:C

4、在估计线性回归模型时,可以将总平方和分解为回归平方和与残差平方各,其中回归平方和表示()(3分)
A.被解释变量的变化中可以用回归模型来解释的部分
B.被解释变量的变化中未被回归模型来解释的部分
C.解释变量的变化中可以用回归模型来解释的部分
D.解释变量的变化中未被回归模型来解释的部分

选A
解答:被解释变量的变化中可以用回归模型来解释的部分

5、线性回归方程中,回归系数b为负数,表明自变量与因变量为()
A.负相关
B.正相关
C.显著相关
D.不相关

答案: A
解析:回归系数越大表示x对y影响越大,正回归系数表示y随x增大而增大,负回归系数表示y随x增大而减小。

6、在回归分析中,下列哪个选项不属于线性回归()。
A、一元线性回归
B、多个因变量与多个自变量的回归
C、分段回归
D、多元线性回归
答案:B

7、逻辑回归模型可以解决线性不可分问题吗?()
A.可以
B.不可以
C.视数据具体情况而定
D.以上说法都不对

答案:B
解析:解决线性不可分一般使用核函数

8、下列选项中哪个不是正规方程的特点()
A.一次运算得出
B.不需要选择学习率
C.时间复杂度高O(n3)
D.需要迭代求解

答案:D

9、线性回归是一个?
A.凸问题
B.非凸问题
C.可能是凸问题,也可能是非凸问题,取决于×
D.用GD可以找到全局最大值
答案:A

10、下列有关线性回归的说法中,不正确的是
A. 线性回归分析就是由样本点去寻找一条贴近这些点的直线
B. 通过回归方程及其回归系数可以估计和预测变量的取值和变化趋势
C. 线性回归直线方程最能代
D.任何一组观测值都能得到具有代表意义的回归直线方程

答案:D

11、关于线性回归的说法不正确的是
A.线性回归是目标值预期是输入变量的线性组合
B.回归用于预测输入变量和输出变量之间的关系
C.线性回归的曲线拟合已知数据且很好地预测未知数据。
D.线性模型形式极其复杂

答案:D
解释:线性回归的模型,也是机器学习中最基础的一种模型

12、关于线性回归的说法不正确的是
A.线性回归是目标值预期是输入变量的线性组合
B.回归用于预测输入变量和输出变量之间的关系
C.线性回归的曲线拟合已知数据且很好地预测未知数据。
D.线性回归不属于回归问题

答案:D
解释:线性回归,顾名思义,属于回归问题

13、线性回归中只有一个自变量的情况称为()
A.单变量回归
B.多变量回归
C.多元回归
D.二元回归
答案:A
线性回归是利用回归方程(函数)对一个或多个自变量和因变量的关系进行建模的一种分析方式。

14、当你增加正则化超参数时会发生什么?
A .使权重变得更小
B .使权重变得更大
C .翻倍后会导致权重也翻倍
D .每次迭代的梯度下降走的步长更长
答案:A

15、以下哪些方法不能用于处理过拟合?( )
A. 减少特征维度,防止维灾难
B.增大数据的训练量
C.利用正则化技术
D.增加特征维度
答案:D

16、下面相关线性回归的解释错误的是()
A、线性回归当中主要有两种模型,一种是线性关系,另一种是非线性关系
B、线性回归和回归方程(函数)有关
C、线性回归中有一个或多个自变量(特征值)和因变量(目标值)
D、线性回归只能表现线性关系。
答案:D
解析:线性回归(Linear regression)是利用 回归方程(函数)一个或多个自变量(特征值)和因变量(目标值)之间 关系进行建模的一种分析方式。
线性回归当中主要有两种模型,一种是线性关系,另一种是非线性关系。
……只能…………

16、不属于过拟合的解决方法的是()
A:添加多项式特征
B:减少特征维度
C:重新清洗数据集
D:正则化
答案:A
添加多项式特征是欠拟合的解决方法。

17、多元线性回归中的“线性”是指什么是线性的
A,系数
B.自变量
C.因变量
D.误差
答案:A

18、以下不能避免过拟合方法的是
A:数据增强,从数据源头获取更多数据
B:增加训练次数
C:保留验证集
D:正则化
答案:B

19、关于对梯度下降和正规方程两种方法的认识,下列说法正确的是?
A、梯度下降需要选择学习率而正规方程不需要。
B、梯度下降和正规方程都需要迭代求解。
C、特征数量较大时不应该使用梯度下降算法
D、正规方程不需要计算方程,时间复杂度低
答案:A

20、下列属于线性回归的分类的有
A.单变量线性关系
B.多变量线性关系
C.非线性关系
D.以上都是

答案:D
解析:分类
线性关系
单变量线性关系
多变量线性关系
非线性关系

21、多元线性回归模型和一元线性回归模型相比,显著不同的是
A.随机误差项无序列相关性
B.解释变量之间互不相关
C.随机误差项具有同方差
D.随机误差项具有零均值
答案:B

22、下列不属于过拟合的解决办法是()
A.重新清洗数据
B.增大数据的训练量
C.正则化
D.添加其他特征项
答案:D

23、下列不属于常见的梯度下降算法的是()
A.大批量梯度下降算法
B.全梯度下降算法
C.随机梯度下降算法
D.随机平均梯度下降算法
答案:A

24、关于线性回归的描述,以下不正确的是:
A:相关关系的两个变量不一定是因果关系。
B:散点图能直观的反应数据的相关程度
C:回归直线最能代表线性相关的两个变量之间的关系
D:任一组数据都有回归直线方程
答案:D

25、下列哪一个不是过拟合的解决办法()
A.重新清洗数据
B.正则化
C.添加多项式特征
D.增大数据的训练量
答:C
解析:添加多项式特征是欠拟合的解决办法

26、机器学习中运用回归分析的有,
A线性回归
B局部加权线性回归
C岭回归
D以上都是。
答案:d

27、以下说法错误的是()
A、增加数据量不能减少过拟合问题
B、复杂的模型容易发生欠拟合问题
C、神经网络不会出现过拟合问题
D、正则化方法可以减少过拟合问题
答案:A

28、下述不属于梯度下降算法的是:
A:全梯度下降算法
B:随机梯度下降算法
C:小批量梯度下降算法
D:knn算法
答案:D

29、一元线性回归模型和多元线性回归模型的区别在于
A.因变量的个数不同
B.自变量的个数不同
C.相关系数的大小不同
D.判定系数的大小不同
解答:B

30、关于线性回归的描述,以下不正确的是:
A: 可以用DW检验残差是否存在序列相关性
B:基本假设包括随机干扰项是均值为0的同方差正态分布
C:在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量
D:线性回归毫无意义
答案:D

34、对于线性回归,我们应该有以下哪些假设?
1找到离群点很重要, 因为线性回归对离群点很敏感
2线性回归要求所有变量必须符合正态分布
3线性回归假设数据没有多重线性相关性
A 1 和 2
B 2 和 3
C 1,2 和 3
D 以上都不是
答案:D

35、线性回归算法的主要特点是()
A.可以拟合自变量和因变量的非线性关系。
B.可以寻找分类对象(数据)的最佳聚类。
C.可以拟合自变量和因变量间相互依赖的线性关系。
D.可以很好地拟合非线性数据。
答案:C

36、进行线性回归分析的条件()
A.x必须服从正态分布
B.y必须服从正态分布
C.x和y必须呈双变量正态分布
D.以上都不对

答案:B

37、以下说法错误的是()
A:线性回归(Linear Regression)是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法
B:线性回归利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模。
C:这种函数是一个或多个称为回归系数的模型参数的线性组合。
D:只有一个自变量的情况称为多元回归,大于一个自变量情况的叫做简单回归。
答案:D

38、线性回归经常使用的优化算法是
A、正规方程
B、梯度下降法
C、最优值搜索
D、A和B
答案:D
解释:线性回归经常使用的两种优化算法是:正规方程和梯度下降法

39、如果使用线性回归模型,下列说法正确的是()
A.检查异常值是很重要的,因为线性回归对离群效应很敏感
B.线性回归分析要求所有变量特征都必须具有正态分布
C.线性回归假设数据中基本没有多重共线性
D.以上说法都不对
答案:A

40、如果在线性回归模型中额外增加一个变量特征之后,下列说法正确的是?
A. R-Squared 和 Adjusted R-Squared 都会增大
B. R-Squared 保持不变 Adjusted R-Squared 增加
C. R-Squared 和 Adjusted R-Squared 都会减小
D. 以上说法都不对
答案:D
解析:本题考查的是线性回归模型的评估准则 R-Squared 和 Adjusted R-Squared。线性回归问题中,R-Squared 是用来衡量回归方程与真实样本输出之间的相似程度。

41、以下关于线性回归和逻辑回归描述错误的是()
A.线性回归要求因变量是连续性数值变量,而逻辑回归要求因变量是分类型变量
B.线性回归直接分析因变量与自变量的关系,而逻辑回归分析因变量取某个值的概率与自变量的关系
C.线性回归要求因变量是分类型变量,而逻辑回归要求因变量是连续性数值变量
D.逻辑回归的因变量可以是二分类的,也可以是多分类的

答案:C

42、下列关于过拟合的解决办法说法正确的是()
A.继续学习
B.减小数据的训练量
C.正则化
D.增大特征维度

答案:C
解析:
过拟合的解决办法有:
1.重新清洗数据集
2.增大数据集的数据量
3.正则化
4.减小特征维度<br>

43、以下哪一个不是过拟合的解决方法:
A.重新清洗数据
B.减小数据的训练量
C.正则化
D.减少特征维度
答案:B

44、回归分析中线性方程分为一元线性回归和多元线性回归的依据()
A 因变量的数目
B 自变量的数目
C 自变量和因变量之间关系的复杂程度
D 自变量和因变量之间的相关性程度
答案:B

45、以下关于线性回归说法错误的是:
A.当特征越多,拟合度越高
B.单特征与目标值的关系呈直线关系,或者两个特征与目标值呈现平面的关系
C.步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度
D.通常用损失函数来度量拟合的程度
答:A
解析:特征值和拟合度没有直接关系

46、以下是线性回归应用场景的是
[A] 医生病理诊断
[B] 银行个人信用评估
[C] 房价预测
[D] 垃圾邮件判断
[参考答案]C

47、下面关于回归分析的描述错误的是:( )
A.是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法
B.回归分析按照涉及的变量的多少,分为一元回归和多元回归分析
C.按照因变量的多少,可分为线性回归分析和非线性回归分析
D.在大数据分析中,回归分析是一种预测性的建模技术
答案:C

48、迭代法以()为代表。
A.梯度下降
B.正规方程
C.函数
D.连续变化
答:A

49、下列说法正确的是()
A:通过添加其他特征项可以解决欠拟合的问题
B:正规方程不能使回归算法更加优化
C:对数据正则化可以解决欠拟合的问题
D:根据肿瘤特征判断良性还是恶性是回归问题
答案:A

50、下列不属于线性回归算法优点的是()
A 是许多强大的非线性模型的基础
B 线性回归模型十分容易理解,结果具有很好的可解释性,有利于决策分析
C 思想简单,实现容易。建模迅速,对于小数据量、简单的关系很有效
D 难以很好地表达高度复杂的数据
答案:D

51、关于梯度下降算法,下列说法中不正确的是()
A 步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度
B 特征指的是样本中输出部分
C 在监督学习中,为了拟合输入样本,而使用的假设函数,
D 为了评估模型拟合的好坏,**通常用损失函数来度量拟合的程度。
答案 B
解释 特征指的是样本中输入部分

52、为了评估模型拟合的好坏,通常用( )来度量拟合的程度。
A.步长
B.特征
C.假设函数
D.损失函数
答案:D

53、下列关于正则化力度与权重系数说法正确的是
A.正则化力度越大,权重系数会越小
B.正则化力度越大,权重系数会越大
C.正则化力度越小,权重系数会越小
D.二者没关系
答案:A

54、多元线性回归中的“线性”是指什么是线性的
A,系数
B.自变量
C.因变量
D.误差
答案:A

55、在使用算法对线性回归进行优化时,下列说法错误的是
A. 正规方程用于解决拟合问题
B. 岭回归通常用于处理小规模数据
C. 梯度下降通常用于处理大规模数据
D. 正规方程用于处理小规模数据
答案:A

56、下列说法错误的是?
A. 线性回归应用场景有房价预测
B.线性回归应用场景有贷款额度预测
C.线性回归应用场景有销售额度预测
D.线性回归只有线性关系
答案:D

60、关于欠拟合(under-fitting),下面哪个说法是正确的?
A. 训练误差较大,测试误差较小
B. 训练误差较小,测试误差较大
C. 训练误差较大,测试误差较大
D. 训练误差较小,测试误差较小
答案:C
当欠拟合发生时,模型还没有充分学习训练集中基本有效信息,导致训练误差太大。测试误差也会较大,因为测试集中的基本信息(分布)是
与训练集相一致的。

61、在弹性网络中,混合比 r 怎么控制使弹性网络变为岭回归:
A:r=1
B:r=0.5
C:r=0
D:r=-1
答案:C

62、下列不属于线性回归预测的应用场景的是
A .房价预测
B . 销售额度预测
C 贷款额度预测
D .广告点击率
答案:D
解释:广告点击率属于逻辑回归

63、下列选项中哪个不是正规方程的特点()
A.不需要选择学习率
B.一次运算得出
C.时间复杂度高O(n3)
D.需要迭代求解
答案:D

64、下列不属于过拟合的解决办法是()
A.重新清洗数据
B.增大数据的训练量
C.正则化
D.添加其他特征项
答案:D

65、下面说法错误的是
A.欠拟合原因是学习到数据的特征过少
B.过拟合原因是原始特征过少,存在一些嘈杂特征,模型过于复杂是因为模型尝试去兼顾各个测试数据点
C.欠拟合在训练集和测试集上的误差都较大
D.过拟合在训练集上误差较小,而测试集上误差较大
答案:B
解释:过拟合原因是原始特征过多,存在一些嘈杂特征, 模型过于复杂是因为模型尝试去兼顾各个测试数据点

66、下列哪个不是过拟合的解决办法?
A:重新清洗数据
B: 增大数据的训练量
C: 减少特征维度,防止维灾难
D: 添加多项式特征
答案: D
解析:添加多项式特征是欠拟合的解决方法

67、以下哪些方法不能用于处理过拟合?( )
A.对数据进行清洗
B.增大数据的训练量
C.利用正则化技术
D.增加特征维度
答案:D
解析:应该是减少特征维度,防止维灾难。

68、以下答案错误的是()
A.只有一个自变量的情况称为单变量回归
B.我们看到特征值与目标值之间建立了一个关系,这个关系可以理解为线性模型。
C.线性回归当中主要有两种模型,一种是线性关系,另一种是非线性关系.
D.多于一个自变量情况的叫做单元回归。
答案:D

69、关于AUC的说法中正确的是
A、ROC曲线上的面积大小
B、是精准率和召回率的调和平均值
C、用来评价分类模型效果的重要指标
D、分类正确的正样本个数占真正的正样本个数的比例
答案:C

69、线性回归方程中,回归系数为负数,表明自变量与因变量为()
A:负相关
B:正相关
C:显著相关
D:不相关
答案:A

70、下列说法正确的是()
A:正规方程不能使回归算法更加优化
B:通过添加其他特征项可以解决欠拟合的问题
C:对数据正则化可以解决欠拟合的问题
D:根据肿瘤特征判断良性还是恶性是回归问题
答案:B

71、下列不是回归问题的是
-A房价预测
-B销售额度预测
-C贷款额度预测
-D明天是否有雨。
答案:D

72、线性回归能完成的任务是()
A.预测离散值
B.预测连续值
C.分类
D.聚类
答案:B

73、下列说法错误的是:
A.在训练数据上不能够获得比其他假设更好的拟合, 但是在测试数据集上却能很好地拟合数据,此时认为这个假设出现了过拟合的现象
B.在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据此时认为这个假设出现了欠拟合的现象
C.过拟合在训练集上误差较小,而测试集上误差较大
D.欠拟合在训练集和测试集上的误差都较大

答案:A
解析:在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据(体现在准确率下降),此时认为这个假设出现了过拟合的现象

74、关于线性回归说法正确的是()
A:全梯度下降算法(FG)在进行计算的时候,计算所有样本的误差平均值,作为我的目标函数
B:随机梯度下降算法(SG)每次可以选择多个样本进行考核
C:小批量梯度下降算法(mini-batch)选择全部样本进行考核
D:随机平均梯度下降算法(SAG)不能给每个样本都维持一个平均值,后期计算的时候,参考这个平均值

答案:A

75、多元线性回归中的“线性”是指什么是线性的
A,系数
B.自变量
C.因变量
D.误差
答案:A

76、以下关于梯度下降法错误的是
A梯度下降法需要选择学习率
B梯度下降法需要迭代求解
C特征数量较大可以使用
D需要计算方程,时间复杂度高O(n3)

答案:D

77、正则化程度的变化,对结果的影响()
A.正则化力度越大,权重系数会越小
B.权重系数 与正则化力度的大小无关
C.正则化力度越大,权重系数会越大
D.正则化力度越小,权重系数会越小
答案:A
解析:正则化力度越大,权重系数会越小。正则化力度越小,权重系数会越大

78、假如你在训练一个线性回归模型,有下列两句话:
1.如果数据量较少,容易发生过拟合
2.如果假设空间较小,容易发生过拟合
关于这两句话,下列说法正确的是()
A.1和2都错误
B.1正确,2错误
C.1错误,2正确
D.1和2都正确
答案:D

79、梯度下降法中,为什么梯度要加一个负号?
A:梯度方向是上升最快方向,负号就是下降最快方向
B:梯度方向是上升最快方向,负号就是上升最快方向
C:梯度方向是下降最快方向,负号就是下降最快方向
D:梯度方向是下降最快方向,负号就是下降最快方向
答案:A

80、以下哪一个不是解决欠拟合的方法?()
A.添加新的数据特征
B.增加模型复杂度,假设一个更复杂的空间
C.减小正则化系数
D.降低模型的复杂度,把模型变得更简单
答案:D

Guess you like

Origin blog.csdn.net/qq_45884783/article/details/122138408