算法岗面经问题合集

一、数据结构等基础知识

写个归并排序,写完后说能不用辅助数组

写一个快排,非递归

二、机器学习算法类

1.

交叉熵,还有个什么熵不记得了

机器学习的衡量指标有什么,如何解决过拟合和欠拟合

介绍一下极大似然估计,和最大后验的区别是什么

L1和L2的区别    L1为什么能稀疏矩阵  L2为什么不能,L2为什么能解决过拟合

1.分类

决策树怎么分裂的,信息增益,信息增益率和基尼指数公式

说一下SVM,AI平台部还叫手推了公式,并且问SVM如何做回归,LR和svm的区别

SVM所有核函数的了解应用,SVM的损失函数

讲一下EM算法,E步和M步的具体步骤,E中的期望是什么(关于什么分布的期望),EM算法推导,jensen不等式确定的下界

线性回归服从什么分布(噪声高斯分布),均值方差如何定义呢,和最小二乘的关系(概率角度推导出来?)

BN的作用是什么,什么时候用BN

bagging和boosting的区别,说一下GBDT的原理,gbdt,xgboost模型的比较
手推逻辑回归,手推gbdt(主要写损失函数的负梯度公式),手推xgboost

 xgboost,rf,lr优缺点场景。。。真的逢面必问

2.聚类

DBSCAN原理和算法伪代码,与kmeans,OPTICS区别

三、NLP

1.词向量

介绍下word2vec,相比简单的神经网络模型有什么优点?看过源码吗?源码里面是如何负采样的,为什么要层次化softmax,sigmod在源码里面的计算方法是什么

传统的softmax词向量模型为什么计算效率低,词嵌入应该从输入层获取还是输出层获取(因为softmax词向量模型有两个矩阵都含有词嵌入)

 word2vec中,负采样相比层次化softmax,有什么优缺点?层次化softmax能保证概率归一化吗?

fasttext和textCNN说一下吧

说一些HMM和CRF,怎么做分词、标注问题(再说了下LSTM CRF,以及多目标学习等)

强化学习在NLP中有什么应用,解释一下策略梯度,reword等

文本分类的方法有哪些,深度学习和非深度学习的方法都说一下

四、深度学习

深度学习优化方法,公式

深度学习一阶优化和二阶优化的方法有哪些,基于动量的方法为什么能快速收敛,讲讲Adam优化算法

lstm和Rnn区别
梯度消失的解决办法

DNN的梯度更新方式

简述反向传播原理

sigmoid和ReLU的优劣

梯度消失问题和损失函数有关吗?

 Dropout为什么能防止过拟合?

Batch Normalization有什么好处?

五、编程知识

Python进程和线程

用python现场处理数据(特征统计等),15分钟限时

 C 的内存对齐,给了几个struct计算占用内存;C 纯虚函数、虚函数表说一下

六、其他类型问题(智力题、场景题、数学题等)

 linux head diff等命令

linux命令:如何按照第二列从大到小排序文件
 说一下 mapreduce 原理,用mapreduce实现10亿级以上数据的kmeans

概率题,抽蓝球红球,蓝结束红放回继续,平均结束游戏抽取次数

概率题:一个家庭有两个孩子,已知其中一个是女孩,求另一个也是女孩的概率

 智力题:丢两个骰子,最可能出现的点数和是多少?3个骰子呢,不能枚举,面试官让快速估计

 智力题:马匹赛跑   25匹马,5个跑道,没有计时器,要找出前三名,最少要比多少场,答案是7

智力题:一个人向北走了一公里,向东走了一公里,又向南走了一公里,最后回到了最开始的起点,为什么?

扣简历,问得太细了,每个项目都要回答如果再做一次,有什么改进的地方,both算法上和模型选择上

猜你喜欢

转载自blog.csdn.net/zhiman_zhong/article/details/88540104
今日推荐