深度学习---总结

总结了我学习深度学习过程中接触到的比较好的讲解和我自己的一些理解。

一、杂谈

1、行列式的本质是什么?

2、如何理解矩阵的 [秩]?

3、奇异值得物理意义是什么?

4、为什么梯度反方向是函数值局部下降最快的方向?

二、机器学习基础

1、逻辑回归和SVM的区别是什么?个适用于解决什么类型的问题?

2、Linear SVM 和LR有什么异同?

3、SVM(支持向量机)属于神经网络范畴吗?

4、如何理解决策树的损失函数?

5、各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型。

6、SVD 降维体现在什么地方?

7、为什么PCA不被推荐用来避免过拟合?

8、为什么说bagging是减少variance,而boosting是减少bias?

9、基于树的adaboost和Gradient Tree Boosting区别?

10、机器学习算法中 GBDT 和 XGBOOST 的区别有哪些?

11、为什么在实际的 kaggle 比赛中 gbdt 和 random forest 效果非常好?

12、机器学习中用来防止过拟合的方法有哪些?

13、机器学习中使用正则化来防止过拟合是什么原理?

14、怎样消除机器学习中的过度拟合?

15、机器学习经典算法优缺点总结

16、线性分类器和非线性分类器

17、如何理解希尔伯特空间

三、深度学习基础

花书(Deep learning)和 解析卷积神经网络-深度学习时间手册

1、能否对卷积神经网络工作原理做一个直观的解释?

2、卷积神经网络的复杂度分析

3、CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?

4、bp算法中为什么会产生梯度消失?

5、梯度下降法是万能的模型训练算法吗?

6、LSTM如何来避免梯度弥散和梯度爆炸?

7、sgd有多种改进的形式(rmsprop,adadelta等),为什么大多数论文中仍然用sgd?

8、你有哪些deep learning(rnn、cnn)调参的经验?(1)

8、炼丹技巧(2)

9、Adam那么棒,为什么还对SGD念念不忘 (1) —— 一个框架看懂优化算法

10、Adam那么棒,为什么还对SGD念念不忘 (2)—— Adam的两宗罪

11、全连接层的作用是什么?

12、深度学习中 Batch Normalization为什么效果好?

13、为什么现在的CNN模型都是在GoogleNet、VGGNet或者AlexNet上调整的?

14、Krizhevsky等人是怎么想到在CNN里用Dropout和ReLu的?

15、深度学习岗位面试问题整理笔记

16、深度学习---CNN、梯度消失

17、那些深度学习《面试》你可能需要知道的

18、深度学习中 Batch Normalization为什么效果好?

19、Batch Normalization 学习笔记

20、Must Know Tips/Tricks in Deep Neural Networks

21 Roofline Model与深度学习模型的性能分析




补充重点:

一、机器学习

1、逻辑回归,SVM,决策树

2、主成分分析,奇异值分解

3、随机森林,GBDT, 集成学习


二、深度学习

1、卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batch normalization,各类经典的网络结构,各类优化方法


三、建议

在大多数情况下,你能拿到什么样的offer,其实已经被你的简历决定了。如果平时没有积累相关的经历和成果,很难只靠面试表现就拿到非常好的offer。所以建议大家平时积累算法岗所看重的一些干货。

下面几点算是找AI相关工作的加分项:

(1)一作的顶级会议论文

(2)AI领域知名公司的实习经历(长期实习更好)

(3)相关方向有含金量的项目经历

(4)计算机视觉竞赛,数据挖掘竞赛的获奖或者优秀名次。现在这类竞赛太多了,就不具体列了。

(5)程序设计竞赛的获奖(例如OI/ACM/topcoder之类的)





猜你喜欢

转载自blog.csdn.net/qq_38906523/article/details/80556469
今日推荐