一般的に使用されているWebサイト(最初のコレクション)[ターン]機械学習法

(1)分は、基本的な2016-09-26,30 scikit-学ぶ回帰(線形、決定木、SVM、KNN)と統合方法(ランダムフォレスト、およびアダブーストGBRT)学ぶ
https://blog.csdn.netを/ u010900574 /記事/詳細/ 52666291は、
     KNNアルゴリズムが最適に動作し、この計算の最悪のパフォーマンスであることが判明しました

(2)2018年12月26日、いくつかの機械学習(KNN、ロジスティック回帰、SVM、決定木、ランダムフォレスト、リミットランダム木、アンサンブル学習、アダブースト、GBDT)
https://blog.csdn.net/ fanzonghao /記事/詳細/ 85260775

(3)2018年2月13日、機械学習:10機械学習アルゴリズム
https://zhuanlan.zhihu.com/p/33794257

(4)2018年12月28日、機械学習-機械学習| ML
https://easyai.tech/ai-definition/machine-learning/
15忠古典機械学習アルゴリズム

 

アルゴリズム トレーニング方法
直線回帰 教師付き学習
ロジスティック回帰 教師付き学習
線形判別分析 教師付き学習
ディシジョン・ツリー 教師付き学習
ナイーブベイズ 教師付き学習
KNN 教師付き学習
学習ベクトル量子化 教師付き学習
SVM 教師付き学習
RF 教師付き学習
AdaBoost 教師付き学習
ガウス混合モデル 教師なし学習
ボルツマンマシンの制限 教師なし学習
K平均クラスタリング 教師なし学習
EMアルゴリズム 教師なし学習

5)2017年6月1日の深さの研究ノート-伝統的な機械学習アルゴリズムに基づいて(LR、SVM、GBDT、ランダムフォレスト ) 文マッチング法
https://blog.csdn.net/mpk_no1/article/details/72836042
     から精度、最高のランダムな森林の効果。最長SVM、上記の時間。
                     
一般的な機械学習アルゴリズム(6)2016-08-04,8種類比較
https://www.leiphone.com/news/201608/WosBbsYqyfwcDNa4.html
     通常:[GBDT> = SVM> = RF> =アダブースト> = その他...]
                       
(7)2016年7月21日、それぞれの分類方法のシナリオロジスティック回帰、サポートベクトルマシン、ランダム森林、GBT、深い学習
https://www.quora.com/What-are-the-advantages-of異なる分類アルゴリズム---
          
(8)2018年12月10日、LR、SVM、RF、GBDT、XGBoost LightGbm比較
https://www.cnblogs.com/x739400043/p/10098659.html
        
(9)2018から03 -07、機械学習(三〇から六) - XGBoost、LightGBM、パラメータサーバー
https://antkillerfarm.github.io/ml/2018/03/07/Machine_Learning_36.html
        
(10)2019年7月29日、深い学習(三〇から七) - CenterNet、アンカーとして無料、NN量子化
https://blog.csdn.net/antkillerfarm/article/details/97623139
                   
(11)2019-05- 13は、マシンがどのようにエントリに学びますか?
https://www.zhihu.com/question/20691338
          
(12)2018年12月28日、機械学習、人工知能、関係は何である学習の深さ?
https://easyai.tech/ai-definition/machine-learning/
               
(13)と2019年9月27日、機械学習
https://www.zhihu.com/topic/19559450/hot
2019年9月26日、ALBERT A言語表現の監視つき自己Liteの学習のためのBERT
https://arxiv.org/abs/1909.11942
          
(14)2016、機械学習機械学習
https://github.com/JustFollowUs/Machine-Learning
           
(15)ブラッドリー・エフロン、トレバー・ハスティー、2016から08、コンピュータ時代の統計的推論:アルゴリズム、証拠とデータサイエンス
https://web.stanford.edu/~hastie/CASI/
         
(16)2019年6月5日、アカデミー会員チャンボー:人工知能技術は、第三世代に入った
https://blog.csdn.net/cf2SudS8x8F0v/article/詳細/ 90986936

2019年6月8日、[学習データ収集]の時系列(時系列)図書学習
http://blog.sciencenet.cn/blog-107667-1183775.html

 

データ解析では、理由は「小さなサンプル数理統計学」の完全に開発されていない、小さなサンプルでは、「大規模なサンプル統計理論に基づいて」多くの新しいアプローチを作るには、その利点を示しませんでした。
  
例えば:
(1)場合、「有効データ」の数> 100,000これらの新しい方法は、優れた性能であろう;
(2)「有効データ」の数<200、特に有効な場合にのみ、数十又はデータ、これらの新しいメソッドのパフォーマンスは満足のいくものではありません。
(3)「信頼区間」における数理統計は、これらの現象を説明する理論の基礎となっています。
  
「有効データ」は、2つの隣接するデータ間の「独立」のデータ情報を運ぶのに十分です。
シャノンのサンプリング定理は、「有効データ」を決定する基本的な方法の一つです。

 

 

                              
関連リンク:
[1] 2016年9月1日、SVMサポートベクトルマシンプログラムのウェブサイト
http://blog.sciencenet.cn/blog-107667-1000087.html
[2] 2016年9月1日、CrosswaveletとウェーブレットコヒーレンスURLウェーブレット解析プログラム
http://blog.sciencenet.cn/blog-107667-1000091.html
[3] 2019年7月27日、ワイブル分布ワイブル分布のリソースページコレクション
http://blog.sciencenet.cn/blog -107667-1191323.html
[4] 2016年9月1日、ELMエクストリーム学習機(ELM)プログラムのウェブサイト
http://blog.sciencenet.cn/blog-107667-1000094.html
[5] 2019-09- 27、極値分布Extremeは配布リンク値
http://blog.sciencenet.cn/blog-107667-1199726.html
[6] 2019年9月22日、ファジー数学:Zade "曖昧、"カルマン「ファジー「(ボーエンページコレクション)
http://blog.sciencenet.cn/blog-107667-1199064.html
[7] 2018年8月26日、収集するために、最大リアプノフ指数のMATLABプログラム(URL)を推定
http://blog.sciencenet.cn/blog-107667-1131215.htmlを
[8] 2018年8月18日、 "ビッグデータ" 「数学的統計の小さなサンプル」に、より熱心な期間、 
http://blog.sciencenet.cn/blog-107667-1129894.html
[9] 2017年7月11日、ブラッドレイ・エフロン(ブラッドレイ・エフロン)。 2005年国家勲章の科学の勝者(統計的に)
http://blog.sciencenet.cn/blog-107667-1065714.html

 

公開された71元の記事 ウォン称賛19 ビュー10000 +

おすすめ

転載: blog.csdn.net/Theo93/article/details/101792479