(1)分は、基本的な2016-09-26,30 scikit-学ぶ回帰(線形、決定木、SVM、KNN)と統合方法(ランダムフォレスト、およびアダブーストGBRT)学ぶ
https://blog.csdn.netを/ u010900574 /記事/詳細/ 52666291は、
KNNアルゴリズムが最適に動作し、この計算の最悪のパフォーマンスであることが判明しました
(2)2018年12月26日、いくつかの機械学習(KNN、ロジスティック回帰、SVM、決定木、ランダムフォレスト、リミットランダム木、アンサンブル学習、アダブースト、GBDT)
https://blog.csdn.net/ fanzonghao /記事/詳細/ 85260775
(3)2018年2月13日、機械学習:10機械学習アルゴリズム
https://zhuanlan.zhihu.com/p/33794257
(4)2018年12月28日、機械学習-機械学習| ML
https://easyai.tech/ai-definition/machine-learning/
15忠古典機械学習アルゴリズム
アルゴリズム | トレーニング方法 |
直線回帰 | 教師付き学習 |
ロジスティック回帰 | 教師付き学習 |
線形判別分析 | 教師付き学習 |
ディシジョン・ツリー | 教師付き学習 |
ナイーブベイズ | 教師付き学習 |
KNN | 教師付き学習 |
学習ベクトル量子化 | 教師付き学習 |
SVM | 教師付き学習 |
RF | 教師付き学習 |
AdaBoost | 教師付き学習 |
ガウス混合モデル | 教師なし学習 |
ボルツマンマシンの制限 | 教師なし学習 |
K平均クラスタリング | 教師なし学習 |
EMアルゴリズム | 教師なし学習 |
5)2017年6月1日の深さの研究ノート-伝統的な機械学習アルゴリズムに基づいて(LR、SVM、GBDT、ランダムフォレスト ) 文マッチング法
https://blog.csdn.net/mpk_no1/article/details/72836042
から精度、最高のランダムな森林の効果。最長SVM、上記の時間。
一般的な機械学習アルゴリズム(6)2016-08-04,8種類比較
https://www.leiphone.com/news/201608/WosBbsYqyfwcDNa4.html
通常:[GBDT> = SVM> = RF> =アダブースト> = その他...]
(7)2016年7月21日、それぞれの分類方法のシナリオロジスティック回帰、サポートベクトルマシン、ランダム森林、GBT、深い学習
https://www.quora.com/What-are-the-advantages-of異なる分類アルゴリズム---
(8)2018年12月10日、LR、SVM、RF、GBDT、XGBoost LightGbm比較
https://www.cnblogs.com/x739400043/p/10098659.html
(9)2018から03 -07、機械学習(三〇から六) - XGBoost、LightGBM、パラメータサーバー
https://antkillerfarm.github.io/ml/2018/03/07/Machine_Learning_36.html
(10)2019年7月29日、深い学習(三〇から七) - CenterNet、アンカーとして無料、NN量子化
https://blog.csdn.net/antkillerfarm/article/details/97623139
(11)2019-05- 13は、マシンがどのようにエントリに学びますか?
https://www.zhihu.com/question/20691338
(12)2018年12月28日、機械学習、人工知能、関係は何である学習の深さ?
https://easyai.tech/ai-definition/machine-learning/
(13)と2019年9月27日、機械学習
https://www.zhihu.com/topic/19559450/hot
2019年9月26日、ALBERT A言語表現の監視つき自己Liteの学習のためのBERT
https://arxiv.org/abs/1909.11942
(14)2016、機械学習機械学習
https://github.com/JustFollowUs/Machine-Learning
(15)ブラッドリー・エフロン、トレバー・ハスティー、2016から08、コンピュータ時代の統計的推論:アルゴリズム、証拠とデータサイエンス
https://web.stanford.edu/~hastie/CASI/
(16)2019年6月5日、アカデミー会員チャンボー:人工知能技術は、第三世代に入った
https://blog.csdn.net/cf2SudS8x8F0v/article/詳細/ 90986936
2019年6月8日、[学習データ収集]の時系列(時系列)図書学習
http://blog.sciencenet.cn/blog-107667-1183775.html
データ解析では、理由は「小さなサンプル数理統計学」の完全に開発されていない、小さなサンプルでは、「大規模なサンプル統計理論に基づいて」多くの新しいアプローチを作るには、その利点を示しませんでした。
例えば:
(1)場合、「有効データ」の数> 100,000これらの新しい方法は、優れた性能であろう;
(2)「有効データ」の数<200、特に有効な場合にのみ、数十又はデータ、これらの新しいメソッドのパフォーマンスは満足のいくものではありません。
(3)「信頼区間」における数理統計は、これらの現象を説明する理論の基礎となっています。
「有効データ」は、2つの隣接するデータ間の「独立」のデータ情報を運ぶのに十分です。
シャノンのサンプリング定理は、「有効データ」を決定する基本的な方法の一つです。
関連リンク:
[1] 2016年9月1日、SVMサポートベクトルマシンプログラムのウェブサイト
http://blog.sciencenet.cn/blog-107667-1000087.html
[2] 2016年9月1日、CrosswaveletとウェーブレットコヒーレンスURLウェーブレット解析プログラム
http://blog.sciencenet.cn/blog-107667-1000091.html
[3] 2019年7月27日、ワイブル分布ワイブル分布のリソースページコレクション
http://blog.sciencenet.cn/blog -107667-1191323.html
[4] 2016年9月1日、ELMエクストリーム学習機(ELM)プログラムのウェブサイト
http://blog.sciencenet.cn/blog-107667-1000094.html
[5] 2019-09- 27、極値分布Extremeは配布リンク値
http://blog.sciencenet.cn/blog-107667-1199726.html
[6] 2019年9月22日、ファジー数学:Zade "曖昧、"カルマン「ファジー「(ボーエンページコレクション)
http://blog.sciencenet.cn/blog-107667-1199064.html
[7] 2018年8月26日、収集するために、最大リアプノフ指数のMATLABプログラム(URL)を推定
http://blog.sciencenet.cn/blog-107667-1131215.htmlを
[8] 2018年8月18日、 "ビッグデータ" 「数学的統計の小さなサンプル」に、より熱心な期間、
http://blog.sciencenet.cn/blog-107667-1129894.html
[9] 2017年7月11日、ブラッドレイ・エフロン(ブラッドレイ・エフロン)。 2005年国家勲章の科学の勝者(統計的に)
http://blog.sciencenet.cn/blog-107667-1065714.html