人工知能アルゴリズムインタビューまとめ - 総合名簿

序文

  • このインタビューは、春採用/秋採用のさまざまな工場での高頻度のインタビューのステレオタイプをまとめたものです.履歴書控除プロジェクトの詳細とは別に、会社が最も聞きたいのは、これらの古典的なアルゴリズムに関連する知識ポイントです.
  • 現在、Python、基本理論、分類とクラスタリング、次元削減、サポート ベクター マシン SVM、ベイジアン|デシジョン ツリー、KNN、Boosting&Bagging、回帰、コスト関数と損失関数、活性化関数、最適化関数、通常の最適化、初期化と正規化、畳み込みをカバーしています。 、プーリング、従来の画像アルゴリズム、モデル評価指標、古典的な分類ネットワークと開発、古典的なオブジェクト検出ネットワークと開発、古典的なセグメンテーション ネットワークと開発、特徴量エンジニアリング、モデルの最適化全374問(参考回答含む)
  • 私はこの対面式をリアルタイムで更新および維持し続けます.また、購読しているパートナーが時間内にエラーを修正し、新しいステレオタイプに遭遇したときにタイムリーなフィードバックと補足を提供できることを願っています.後期。その後、さまざまな側面が追加されます (NLP、検索、プロモーションなど) 2022.09.11 は 19.9 から 29.9 に上昇します。まだ迷ってる〜

リスト

トピック
人工知能インタビューまとめ - Python インタープリター言語とは何か、コンパイル言語とは何かについて話しますか?
Python プログラムの実行プロセスについて話しますか?
Python の範囲について話しますか?
Python のデータ構造について話しますか?
Python の可変型と不変型について話しますか?
プロセスとスレッドについて話しますか?
Python のマルチスレッドについて話しますか?
Python でのマルチプロセッシングについて話しますか?
Pythonミューテックスとデッドロックについて話しますか?
ラムダスの話?
Python のディープ コピーとシャロー コピーについて話しますか?
Python のマルチスレッドが複数の CPU を使用できるかどうかについて話しますが、それはなぜですか?
Python ガベージ コレクション メカニズムについて話しますか?
Python のジェネレーターについて話しますか?
イテレータとジェネレータの違いについて話しますか?
Python リストでの del、remove、pop の使い方と違いについて話しますか?
閉鎖とは何かについて話しますか?
Python デコレータについて話しますか? (この説明は非常に詳細です!)
Python の Yeild と return の違いについて教えてください。
Python での set の基本的な実装について話しますか?
Python の辞書とセットの違いについて話しますか?
Python の __init__ と __new__ および __call__ の違いについて話しますか?
Python のメモリ管理について話しますか?
Python のクラス メソッドと静的メソッドの違いについて話しますか?
内積と行列乗算の違いを教えてください。
Python でのエラーと例外処理について話しますか?
Python での try else と finally の違いについて話しますか?
モンキーパッチとは何か教えてください。
Python の is と == の違いについて話しますか?
gbk と utf8 の違いについて教えてください。
辞書をたどる方法について話しますか?
リストを逆にするのはどうですか?
タプルを辞書に変換する方法について話しますか?
__init__.py ファイルの機能と意味について教えてください。
関数呼び出しパラメーターが値渡しか参照渡しか教えてください。
デフォルトのパラメータの理解について話しますか?
リストの重複を排除する方法をすべて教えてください。
Python の一般的なリスト内包表記について話しますか?
map 関数と reduce 関数について話しますか?
hasattr()getattr()setattr()関数の詳細な説明について話しますか?
exceptの機能と使い方について教えてください。
のコードは、例外を返した後に最終的に実行されますか? カスタム例外をスローする方法は?
アサーションとは何ですか?
Python で文字列の \ 文字を理解する方法を教えてください。
Python がどのように型変換を行うかについて話しますか?
Python 操作の効率を改善する方法について話しますか?
Python の any() および all() メソッドについて話しますか?
Python で false になっている要素を教えてください。
人工知能インタビューまとめ - 基礎理論 说说你项目中怎么选择开发平台的?
说说你怎么进行超参数调优的?
说说为什么需要Batch Size?
说说归一化的目的?
说说局部最优与全局最优?
说说监督学习与非监督学习的区别?
说说监督学习有哪些步骤?
说说为什么神经网络越来越深?
说说神经网络变深的意义?
说说为什么深度神经网络较浅层网络难以训练?
说说超参数搜索过程?
说说什么是模型微调Fine tuning?
说说Fine tuning时是否会更新网络参数,为什么?
说说Fine tuning模型有哪些方法?
说说误差、噪声、偏差、方差的区别与联系?
说说熵是什么?
说说梯度消失、爆炸的解决方案?
说说深度学习为什么不用二阶优化?
说说什么是TOP5错误率?
人工智能面试总结-分类与聚类 说说常用的分类算法,以及各自的优缺点?
说说为什么正确率有时不能有效评估分类算法?
说说什么样的分类器最好?
说说聚类算法有哪些衡量标准?
(选看)各聚类算法性能比较汇总
说说什么是聚类,你知道哪些聚类算法?
具体展开介绍你知道的聚类算法?
说说K-Means聚类算法流程?
说说K-Means聚类算法如何调优?
说说K-Means聚类算法如何选择初始点?
说说K-Means聚类聚的是特征还是样本?
说说K-Means聚类的特征距离是如何计算的?
说说聚类与分类的区别?
手撕K-Means聚类
人工智能面试总结-降维 说说怎样避免维数灾难?
说说降维的必要性?
说说降维有什么意义?
说说PCA主成分分析?
说说PCA核心思想?
说说如何得到包含最大差异性的主成分方向?
说说特征值分解矩阵?
说说SVD分解矩阵?
说说PCA算法流程总结?
图解PCA核心思想
说说PCA降维之后的维度怎么确定?
说说PCA有什么优缺点?
推导PCA
说说线性判别分析LDA?
说说线性判别分析LDA核心思想?
图解LDA核心思想?
说说LDA算法流程?
说说LDA的优缺点?
说说PCA和LDA的区别?
人工智能面试总结-支持向量机SVM 介绍下SVM?
推导下SVM?
说说SVM能解决哪些问题?
说说SVM核函数特点与作用?
说说SVM有什么主要特点?
说说SVM优缺点?
说说SVM为什么引入对偶问题?
说说SVM中你知道的核函数有以及表达式?
说说如何理解SVM中的对偶问题?
说说逻辑回归与SVM有什么区别?
说说如果特征比较多,用LR还是SVM?
说说SVM是否可以用随机梯度下降?
说说为什么SVM对缺失数据敏感?
说说SVM怎么防止过拟合?
人工智能面试总结-贝叶斯 说说先验概率与后验概率?
说说极大似然估计的原理?
图解极大似然估计
说说朴素贝叶斯?
说说朴素贝叶斯有什么优缺点?
说说贝叶斯公式?
说说贝叶斯公式的基本原理?
说说朴素贝叶斯分类器?
说说怎么理解朴素贝叶斯的“朴素”?
说说什么是拉普拉斯平滑法?
说说朴素贝叶斯中有没有超参数可以调?
说说朴素贝叶斯中有什么具体应用?
说说朴素贝叶斯是否对异常值敏感?
了解半朴素贝叶斯分类器吗?
举例理解朴素贝叶斯分类器(最浅显易懂的经典案例)
人工智能面试总结-决策树 说说决策树?
说说决策树原理?
说说决策树的划分标准?
说说信息增益?
说说树模型怎么判断叶子节点是否要分裂?
说说ID3和C4.5的区别?
说说决策树有哪些要素?
说说决策树中剪枝的作用?
说说剪枝有哪些策略?
说说剪枝中的预剪枝与后剪枝?
说说预剪枝与后剪枝优缺点?
说说树模型怎么处理离散特征?
说说决策树需要进行归一化吗?
说说决策树优缺点?
说说决策树过拟合原因与解决办法?
说说决策树与逻辑回归的区别?
说说决策树中的损失函数?
说说决策树算法流程?
人工智能面试总结-KNN 说说KNN是什么?
说说KNN有哪些要素?
说说KNN的K值怎么选?
说说KNN数据是否需要归一化?
说说欧式距离与曼哈顿距离,KNN用什么?
说说K值设置过大有什么影响?
说说KNN的优缺点?
人工智能面试总结-Boosting&Bagging 说说集成学习方法有哪些?
说说Boosting算法?
说说Bagging算法?
介绍下AdaBoost、GBDT、XGboost、LightGBM、RF算法?
说说Adaboost的优缺点?
说说LightGBM与XGBoost的区别?
说说XGBoost、GBDT的区别?
说说XGBoost的block结构?
说说随机森林与GBDT区别?
说说GBDT是否适合于处理大规模的ID特征?
说说GBDT算法步骤?
说说GBDT为什么使用决策树作为基学习器?
说说GBDT的G梯度的向量长度为多少?
说说LightGBM的直方图排序后会比XGBoost的效果差吗?
说说XGBoost正则化项和什么有关?
说说XGBoost缺失值处理方法?
说说为什么XGBoost要二阶展开?
说说XGBoost如果损失函数没有二阶导怎么处理?
说说随机森林是什么随机?
说说Bootstrap?
人工智能面试总结-回归 说说线性回归?
说说独立同分布?
推导线性回归?
说说线性回归优缺点?
说说逻辑回归?
推导逻辑回归?
说说逻辑回归的优缺点?
说说回归与分类的区别?
说说逻辑回归中是否需要特征归一化?
说说如何优化逻辑回归性能?
说说逻辑回归的特征离散化?
说说最小二乘法在什么条件下与极大似然估计等价?
说说逻辑回归可以将参数初始化为0吗?
说说逻辑回归为什么不用平方损失函数?
说说逻辑回归与线性回归关系?
人工智能面试总结-代价函数与损失函数 说说代价函数的作用?
说说代价函数为什么要非负?
说说你知道的代价函数?
说说损失函数是什么?
说说损失函数作用?
说说你知道的损失函数?
说说用于回归的损失函数?
说说用于分类的损失函数?
说说检测与分割中的损失函数?
说说交叉熵函数与最大似然函数的联系和区别?
用公式说明下交叉熵函数与最大似然函数联系?
说说Sigmoid作为激活函数时为什么要用交叉熵损失函数而不用均方误差损失函数?
说说交叉熵损失函数(Cross-entropy)和 均方误差损失函数(MSE)的区别?
推导交叉熵损失函数?
说说交叉熵的思想?
说说交叉熵损失函数为什么有log项?
说说KL散度?
说说深度神经网络(DNN)的损失函数是什么?
手撕IoU?
人工智能面试总结-激活函数 说说激活函数作用?
说说激活函数为什么需要非线性函数?
说说你知道的激活函数以及各自特点、适用场景?
说说ReLU6?
说说ELU指数线性单元特点?
说说Sigmoid的缺点,以及如何解决?
说说ReLU在零点可导吗,如何进行反向传播?
Sigmoid求导推导一下?
Softmax求导推导一下?
说说Softmax溢出怎么处理?
说说激活函数有哪些性质?
说说如何选择激活函数?
说说ReLU函数的特点?
说说什么时候用线性激活函数?
说说怎么理解ReLU负半区间也是非线性激活函数?
说说Softmax 函数如何应用于多分类?
人工智能面试总结-优化函数 说说优化函数的作用?
说说梯度下降法的作用?
说说梯度下降法算法步骤?
说说你知道的优化函数?
展开说说梯度下降、批次梯度下降、随机梯度下降?
说说Batch的影响?
说说批量梯度下降与随机梯度下降区别?
说说哪些方法对梯度引入动量进行改进?
说说哪些方法对学习率引入动量进行改进?
说说各优化器在优化什么以及大致优化步骤?
说说SGD和Adam的对比?
说说Adam的二阶矩原理?
人工智能面试总结-正则优化函数 说说过拟合与欠拟合?
说说什么是正则化?
说说正则化的作用?
说说有哪些解决过拟合问题的方法?
说说L1(lasso)与L2(ridge)正则的区别?
说说L1与L2为什么对于特征选择有着不同方式?
说说L1正则的缺点?
说说L1为什么可以让模型稀疏?
说说L1与L2符合什么分布?
说说BN(Batch Normolization)?
BN训练与测试有什么不同?
说说BN/LN/IN/GN?
说说Dropout改进?
说说BN与Dropout联合使用?
说说方差偏移?
说说Dropout的补偿?
说说BN的γ与β ?
推导BN+卷积的公式?
人工智能面试总结-初始化与归一化 说说什么是网络参数初始化?
说说为什么需要合理的参数初始化?
说说理想的参数初始化应该是什么?
说说你知道的初始化方法?
说说全0初始化?
说说等值初始化?
说说随机初始化?
说说随机初始化缺陷?
说说Xavier初始化?
说说He初始化?
用公式说明梯度消失与梯度爆炸(手推)?
说说为什么要归一化?
说说为什么归一化能提高最优解的求解速度?
说说归一化的类型?
说说局部响应归一化作用?
说说什么是批归一化?
说说批归一化(BN)算法流程?
人工智能面试总结-卷积 说说什么是卷积?
说说图像卷积过程?
说说卷积层基本参数?
说说卷积操作后图像大小计算方式?
说说卷积神经网络中的权重共享?
说说上采样中的反卷积?
说说空洞卷积?
说说空洞卷积输出计算公式?
说说深度可分离卷积?
说说可分离卷积与常规卷积的计算量?
说说为什么可分离卷积中Depthwise卷积后还要进行pointwise卷积?
说说分组卷积?
说说三维卷积?
说说1x1卷积作用?
说说卷积的底层实现/加速技巧?
说说卷积神经网络的特点?
手推卷积实现原理?
人工智能面试总结-池化 说说什么是池化?
说说池化层的作用?
说说平均池化?
说说最大池化?
说说Stochastic pooling(随机池化)?
说说重叠池化?
说说空间金字塔池化?
说说ROI Pooling
说说最大池化与平均池化是如何进行反向传播的?
说说卷积层与池化层的区别?
说说池化操作对输出特征图的计算方式?
人工智能面试总结-传统图像算法 说说相机标定?
说说图像的边缘是什么?
说说边缘检测的任务以及基本原理
说说Canny边缘检测算子?
说说除Canny外还知道什么边缘检测算子?
说说霍夫变换步骤?
说说仿射变换?
说说透视变换?
说说最小二乘法?
说说SIFT算子以及有什么特点?
说说SIFT特征提取与匹配算法步骤?
说说SIFT和SURF区别?
说说图像腐蚀与膨胀?
说说图像开闭运算?
说说了解哪些插值算法?
说说双线性插值操作过程?
人工智能面试总结-模型评价指标 说说分类模型评估有哪些常用方法?
说说回归模型评估有哪些常用方法?
说说混淆矩阵?
说说错误率与精度?
说说查准率、查全率、F1-Score?
说说如何计算TPR与FPR?
说说ROC与AUC?
说说ROC曲线如何画?
说说AUC的定义?
说说如何计算AUC?
说说AUC的两种计算方法?
说说AUC优缺点?
说说为什么ROC曲线对正负样本比例不敏感?
说说PR曲线图?
说说AP与mAP?
人工智能面试总结-经典分类网络与发展 说说经典分类网络有哪些?
说说LeNet-5?
说说AlexNet?
说说Network in Network?
说说VGGNet?
说说GoogLeNet?
说说ResNet?
说说Inception系列?
说说DenseNet?
说说Xception?
简要说说MobileNet系列?
说说ShuffleNet?
说说SENet?
人工智能面试总结-经典目标检测网络与发展 说说目标检测领域几大任务?
说说目标检测算法有哪些分类?
说说Single Shot MultiBox Detector(SSD)?
说说DSSD?
说说You Only Look Once v1(YOLOv1)
说说YOLOv2?
说说YOLOv3?
说说YOLOv4?
说说R-CNN?
说说Fast R-CNN?
说说Faster R-CNN?
说说Faster R-CNN 训练和测试的流程有什么不一样?
说说Fast R-CNN中的RoI Pooling?
说说非极大值抑制流程?
手推NMS?
说说Anchor锚框?
说说Anchor based优缺点?
说说Anchor free优缺点?
说说什么是类别不均衡,会带来什么问题?
说说为什么二阶段网络不会出现类别不均衡问题?
说说Focal Loss?(肥肠重要)
人工智能面试总结-经典分割网络与发展 说说图像分割有哪几类?
说说为什么传统CNN的输入图片是固定大小?
说说FCN?
说说SegNet?
说说使用池化层进行上采样的优势?
说说U-Net?
说说PSPNet?
说说DeepLab v1?
说说DeepLab v2?
说说DeepLab v3?
说说Mask R-CNN?
说说RoIAlign?
人工智能面试总结-特征工程 说说你知道的特征工程?
说说遇到缺值的情况如何处理?
说说机器学习中解决样本不均衡问题的方法?
说说深度学习中解决样本不均衡问题的方法?
说说如何解决训练样本少的问题?
说说常见的特征筛选方法?
说说特征选择的目的?
说说训练时出现Nan的原因?
说说怎么找出相似性高的特征并去掉?
人工智能面试总结-模型优化 说说你知道的模型压缩方法?
说说模型压缩的作用与意义?
说说低秩近似?
说说剪枝与稀疏约束?
说说参数量化方法?
说说二值网络?
说说知识蒸馏?
说说降低网络复杂度但不影响精度的方法?
说说模型优化加速方法?
说说TensorRT加速原理?

おすすめ

転載: blog.csdn.net/zzh516451964zzh/article/details/126857351