一緒にスイカを食べる本 | 超わかりやすい | 機械学習 | 周志華

ここを見てください!近くを通ったらお見逃しなく!
初心者が知っておくべきこと: 私と一緒にスイカの本を食べましょう

スイカブックの主な内容:

第1章 はじめに
1.1 はじめに(P1)
1.2 基本用語(P2)
1.3 仮説空間(P4)
1.4 帰納的選好(P6)
1.5 開発プロセス(P10)
1.6 現在の申請状況(P13)
1.7 読み物(P16)

第2章 モデルの評価と選択
2.1 経験誤差と過学習(P23)
2.2 評価方法(P24)
  2.2.1 ホールドアウト法
  2.2.2 相互検証法
  2.2.3 ブートストラップ法
2.3 性能測定
  2.3.1 誤り率と精度(P29)
  2.3 .2 適合率、再現率および F1
  2.3.3 ROC および AUC (P33)
  2.3.4 コストに敏感な誤り率およびコスト曲線
2.4 比較テスト
  2.4.1 仮説テスト (P37)
  2.4.2 交差検証 t テスト (P40) )
  2.4.3 マクネマーテスト(P41)
  2.4.4 フリードマンテストとネメニ追跡テスト(P42)
2.5 偏差と分散(P44)
2.6 読み物(P46)

第3章 線形モデル
3.1 基本形(P53)
3.2 線形回帰
3.3 対数確率回帰(P57)
3.4 線形判別分析(P60)
3.5 多分類学習(P63)
3.6 カテゴリ不均衡問題(P66)
3.7 読み物(P67)

第4章 デシジョンツリー
4.1 基本処理(P73)
4.2 パーティション選択(P75)
  4.2.1 情報ゲイン
  4.2.2 ゲインレート(P77)
  4.2.3 ジニ指数(P79)
4.3 枝刈り処理
  4.3.1 プレ枝刈り(P79 )
  4.3 .2 枝刈り後の処理 (P82)
4.4 連続値と欠損値
  4.4.1 連続値の処理 (P83)
  4.4.2 欠損値の処理 (P85)
4.5 多変量決定木 (P88)
4.6 資料の閲覧 (P92)

第5章 ニューラルネットワーク
5.1 ニューロンモデル (P97)
5.2 パーセプトロンと多層ネットワーク (P98)
5.3 誤差逆伝播アルゴリズム (P101)
5.4 大域最小値と局所最小値 (P106)
5.5 その他の一般的なニューラルネットワーク (P108)
  5.5.1 RBF ネットワーク
  5.5.2 ART(ネットワーク)
  5.5.3 SOMネットワーク(P109)
  5.5.4 カスケード相関ネットワーク(P110)
  5.5.5 エルマンネットワーク
  5.5.6 ボルツマンマシン(P111)
5.6 深層学習(P113)
5.7 読み物(P115)

第6章 サポートベクターマシン
6.1 マージンとサポートベクター (P121)
6.2 二重問題 (P123)
6.3 カーネル関数 (P126)
6.4 ソフトマージンと正則化 (P129)
6.5 サポートベクター回帰 (P133)
6.6 カーネル法 (P137)
6.7 読み物( P139)

第7章 ベイズ分類器
7.1 ベイズ決定理論 (P147)
7.2 最尤推定 (P149)
7.3 単純ベイズ分類器 (P150)
7.4 半単純ベイズ分類器 (P154)
7.5 ベイスリランカネットワーク (P156)
  7.5.1 構造 (P157)
  7.5 .2 学習 (P159)
  7.5.3 推論 (P161)
7.6 EM アルゴリズム (P162)
7.7 読み物 (P164)

第8章 アンサンブル学習
8.1 個人とアンサンブル (P171)
8.2 ブースティング (P173)
8.3 バギングとランダムフォレスト (P178)
  8.3.1 バギング
  8.3.2 ランダムフォレスト (P179)
8.4 組み合わせ戦略 (P181)
  8.4.1 平均法
  8.4.2投票方法(P182)
  8.4.3 学習方法
8.5 多様性
  8.5.1 誤差発散分解(P185)
  8.5.2 多様性測定(P186)
  8.5.3 多様性強化(P188)
8.6 読み物(P190)

第9章 クラスタリング
9.1 クラスタリングタスク (P197)
9.2 パフォーマンス測定
9.3 距離計算 (P199)
9.4 プロトタイプクラスタリング (P202)
  9.4.1 K 平均法アルゴリズム
  9.4.2 学習ベクトル量子化 (P204)
  9.4.3 混合ガウスクラスタリング (P206)
9.5密度クラスタリング (P211)
9.6 階層的クラスタリング (P214)
9.7 読み物 (P217)

第10章 次元削減とメトリック学習
10.1 k 最近傍学習 (P225)
10.2 低次元埋め込み (P226)
10.3 主成分分析 (P229)
10.4 カーネル線形次元削減 (P232)
10.5 多様体学習 (P234)
  10.5.1 等メトリックマッピング(P234)
  10.5.2 局所線形埋め込み (P235)
10.6 メトリック学習 (P237)

第11章 特徴選択とスパース学習
11.1 サブセット検索と評価 (P257)
11.2 フィルタ選択 (P249)
11.3 ラップ選択 (P250)
11.4 埋め込み選択と L1 正則化 (P252)
11.5 スパース表現と辞書学習 (P254)
11.6 圧縮予測 (P257) )
11.7 読み物 (P260)

第12章 計算学習理論
12.1 基礎知識 (P267)
12.2 PAC学習 (P268)
12.3 限られた仮説空間
  12.3.1 分離可能な状況 (P270)
  12.3.2 分離不可能な状況 (P272)
12.4 VC次元 (P273)
12.5 Rademacher Complexity (P279)
12.6安定性 (P284)
12.7 読み物 (P287)

第13章 半教師あり学習
13.1 ラベルなしサンプル (P293)
13.2 生成手法 (P295)
13.3 半教師ありSVM (P298)
13.4 グラフ半教師あり学習 (P300)
13.5 不一致ベースの手法 (P304)
13.6 半教師ありクラスタリング ( P307 )
13.7 読み物(P311)

第14章 確率的グラフィカルモデル
14.1 隠れマルコフモデル (P320)
14.2 マルコフ確率場 (P322)
14.3 条件付き確率場 (P325) 14.4
学習と推論
  14.4.1 変数の削除 (P328)
  14.4.2 信念の伝播 (P330)
14.5 近似推論
  14.5 .1 MCMC サンプリング (P331)
  14.5.2 変分推論 (P334)
14.6 トピック モデル (P337)
14.7 読み物 (P339)

第15章 ルール学習
15.1 基本概念 (P347)
15.2 シーケンシャルカバリング (P349)
15.3 枝刈り最適化 (P352)
15.4 一次ルール学習 (P354)
15.5 帰納的論理プログラミング (P357)
  15.5.1 最小一般化 (P358)
  15.5.2逆リダクション (P359)
15.6 読み物 (P363)

第16章 強化学習
16.1 タスクと報酬 (P372)
16.2 K-ロッカーギャンブルマシン
  16.2.1 探索と利用 (P373)
  16.2.2 ε-Greedy (P374)
  16.2.3 ソフトマックス (P375)
16.3 モデル学習
  16.3 .1 政策評価(P377)
  16.3.2 ポリシーの改善 (P379)
  16.3.3 ポリシーの反復と値の反復 (P381)
16.4 モデルフリー学習 (P382)
  16.4.1 モンテカルロ強化学習 (P383)
  16.4.2 時間差分学習 (P386)
16.5価値関数近似(P388)
16.6 模倣学習(P390)
  16.6.1 逆強化学習(P391)
16.7 読み物(P393)

付録
A 行列
  A.1 基本計算 (P399)
  A.2 導関数 (P400)
  A.3 特異値分解 (P402)
B 最適化
  B.1 ラグランジュ乗数法 (P403)
  B.2 二次計画法 (P406 )
  B.3 正数半正定則 (P407)
  B.4 勾配降下法
C 確率分布
  C.1 共通確率分布 (P409)
    C.1.1 一様分布
    C.1.2 ベルヌーイ分布
    C.1.3 二項分布
    C.1.4 その他の項分布
    C.1.5 ベータ分布 (P411)
    C.1.6 ディリクレ分布
    C.1.7 ガウス分布
  C.2 共役分布 (P413)
  C.3 KL 発散 (P414)

参考文献:

  1. https://mp.weixin.qq.com/mp/appmsgalbum?__biz=Mzg5NjE1NTc1OA==&action=getalbum&album_id=3026152859105230849&scene=173&from_msgid=2247484508&from_itemidx=1&count=3&nolastread=1#wechat_redirect
  2. https://blog.csdn.net/Nagato_Yuki_SOS/article/details/107821077

おすすめ

転載: blog.csdn.net/weixin_43843918/article/details/131907349