【Task01】Datawhale202205 がチームを組んでメロンの食べ方チュートリアル機械学習スイカ本 + カボチャ本

【Task01】Datawhale202205 がメロンの食べ方を学ぶチームを結成しました チュートリアル 機械学習 スイカの本+カボチャの本の
概要 スイカの本+カボチャの本の第1章と第2章

学習提案: Watermelon Book の第 1 章と第 2 章にある基本概念と用語の概要。次の内容はスキップしてください: 第 1 章
: [1.4-帰納的優先]
第 2 章: [2.3.3-ROC および AUC] はスキップできます。 』以降はスキップ可能です。

スイカ本正誤表(譲渡)

第 1 刷、2016 年 1 月):

p.6、図 1.2: 画像内の 2 か所が「サクサク」 --> 「うるささ」
p.28、第 3 段落の最後から 2 行目: 「かなり」 --> 「あまり多くない」
p.28、補足: 「たとえば...数百億のパラメータ」 --> 「機械学習には、多くの場合 2 種類のパラメータが含まれます。1 つは「ハイパーパラメータ」とも呼ばれるアルゴリズムのパラメータで、もう 1 つは数値です。多くの場合、10 以内です。もう 1 つはモデルのパラメーターです。その数は、たとえば...数百億個のパラメーターなど、多数になる場合があります。2 つのパラメーター調整方法は似ており、どちらも複数のモデルを生成し、それに基づいて選択します。特定の評価方法。違いは、前者は通常複数のパラメータを手動で設定し、モデルは候補値の後に生成され、後者は学習を通じて複数の候補モデルを生成することです (たとえば、ニューラル ネットワークは異なるラウンドでトレーニングを停止します)。 p.31
下から 3 行目:「イベント」→「偶数」
p.256 段落 4:「α i {\bf \alpha}_i の修正」ある私は” --> ”以α i {\bf \alpha}_iある私はは初期値です」
p.256、最後の段落の最初の行:「E i = {\bf E}_i =E私は= " --> "${\bf E}i = {\bf X} - " p.385、式 (16.25) と (16.26) : 2 か所" " p.385、式 (16.25) と (16.26) :2か所」p.3 8 5 _ _( 1 6 . 2 5 )および( 1 6 . 2 6 ):2 つの" r_i" − − > " " --> ">" R_i" p.385 、式 (16.25 ) の次の行: "If you change to ... " − − > " where" p.385、式 (16.25) の次の行: "If you change to . .." --> "どこp.3 8 5 _ _式の次の( 1 6 . 2 5 ):使用する場合>"ここで、R_i は最初の値を表しますステートバートラックからi番目のトラック上の自己状態を示します状態xから軌道の終わりまでの累積報酬代わりに... " p . 386 、式 (16.28 ) の次の行: " 常に 1 " − − > " 終わりまでの累積報酬の場合。 ..." p.386を使用する最後までジャックポット代わりに使用した場合p.3 8 6 _ _式の次の( 1 6 . 2 8 ):常に1 _> a_i=\pi(x_i)の場合、常に 1」 p.386、図 16.11、ステップ 4: 2 か所「は常に 1」 p.386、図 16.11、ステップ 4: 2 か所常に1 p . 3 8 6 , _1 6 . 1 1 ステップ4 _:2 つの" \pi(x)" − − > " " --> ">" \pi(x_i)" p . 386 、図 16.11、ステップ 6 の式 − − > " " p.386、図 16.11、ステップ 6 の式 --> "p.3 8 6 _ _1 6 . 1 1 ステップ6計算>" R=\frac{1}{Tt}\left(\sum{i=t+1}^T r_i\right) \prod_{i=t+1}^{T-1} \frac{\mathbb I (a_i=\pi(x_i))}{p_i}$"
p.386、図 16.11、補足「修正された累積報酬を計算します。」 --> 「修正された累積報酬を計算します。内側の下付き文字は上付き文字より大きいです」項目の値は 1 です。」; 補足説明「重要度サンプリング係数」を削除します。

第1章;序章

1.1 はじめに

機械学習:コンピュータ、経験
機械学習の主な研究内容:
コンピュータ上のデータから「モデル」(モデル)を生成するアルゴリズム、すなわち「学習アルゴリズム
モデル
モード

1.2 基本用語

1. データセット
2. インスタンスまたは
サンプルイベントまたはオブジェクト
3. 属性または特徴属性値
4. 属性空間、サンプル空間 (サンプル空間) または入力
空間
5、特徴ベクトル (特徴ベクトル)
…次元、学習、トレーニング、トレーニングデータ、トレーニング サンプル、トレーニング セット、仮説、真実、学習者、予測、ラベル、例、ラベル空間、分類、回帰、テスト、クラスタリング、教師あり学習、教師なし学習 (ラベル付き情報の有無にかかわらず)、一般化、分布、i.i.d.

1.3 仮説空間

帰納的対演繹的
帰納的学習の概念 ブール概念の学習 ブール式の学習 バージョン スペース

1.4 帰納的な好み

今は見ないでください

1.5 開発の歴史

推論期、知識期、学習期

1.6 申請状況

ビッグデータ時代の3つのキーテクノロジー:
機械学習:データ分析
クラウドコンピューティング:データ処理
クラウドソーシング(クラウドソーシング):データメモリ

自動運転のためのデータ マイニング
:
1. 有名な機械学習の教科書 [Mitchell. 1997] のセクション 4.2 では、1990 年代初頭に自動運転車を制御するためにニューラル ネットワーク学習を使用した ALVINN システムが紹介されています

センサーが受け取る情報出力
: ステアリング、ブレーキ、加減速制御
3. アメリカ DARPA の挑戦
DARPA の正式名称は、米国国防総省の高等研究計画局であり、インターネットや全地球衛星測位システムはすべて研究から派生したものです。 4. 2011 年 6 月にネバダ
州議会が法案を可決し、米国で初めて自動運転車を承認した州となり、それ以来、ハワイとフロリダでも同様の法案が可決されています。

1.7 読み物

書籍、ウェブサイト、カンファレンス、雑誌

第 2 章 モデルの評価と選択

2.1 経験的誤差と過学習

誤り率 E= a/m
精度 = (1-a/m)X100%
誤差 (誤差) 訓練誤差 (トレーニング誤差) または経験的誤差 (経験的誤差)、新しいサンプルの誤差は汎化誤差 (汎化誤差) と呼ばれます。 )
取得したいのは: トレーニング セットではなく、新しいサンプルで優れたパフォーマンスを発揮する学習者
(結果的には...につながる可能性があります)

学習者がトレーニング サンプルを「あまりにもよく」学習すると、トレーニング サンプル自体のいくつかの特性がすべての潜在的なサンプルの一般的な特性とみなされる可能性があり、汎化パフォーマンスの低下につながります。これは「過学習」と呼ばれます。 「機械学習における」。「過学習」の反対は「過学習」です。これは、トレーニング サンプルの一般的な特性が
学習されていないことを
ここに画像の説明を挿入
十分に(主要な障害) に対して、過学習 (克服が容易) では、過学習はできません。完全に避けられる

「モデル選択」問題
理想的な解決策: 候補モデルの汎化誤差を評価し、汎化誤差が最小のモデルを選択する

2.2 評価方法

実験テストを使用して、学習者の汎化誤差を評価し、選択を行うことができます。
「テスト セット」(テスト セット) を使用して、学習者の新しいサンプルを識別する能力をテストし、テストで「テスト誤差」を使用します。 set (テスト誤差) 一般化誤差の近似として、テスト サンプルは条件を満たす必要があり、(推論による)トレーニング
セットにできるだけ出現しないようにする必要があります。 方法:データセットDを処理してトレーニング セットSとトレーニングを生成します。セットT

2.2.1 セットアウト方法

トレーニング/テスト セットの分割では、困難なデータ分割プロセスによって生じる余分な偏差が最終結果に影響を与えるのを避けるために、データ分布の一貫性をできる限り維持する必要があります。

ホールドアウト法を 1 回だけ使用して得られる推定結果は、多くの場合安定性と信頼性が低いため、ホールドアウト法を使用する場合は、通常、いくつかのランダムな分割を使用し、実験による評価を繰り返し、その平均値を次のようにする必要があります。ホールドアウト法の評価結果

リーブアウト法のジレンマ: 一般的には、サンプルの約 2/3 ~ 4/5 をトレーニングに使用し、残りのサンプルをテストに使用します。一般的に言えば、テスト セットには少なくとも 30 個のサンプルが含まれている必要があります [ミッチェル
] 、1997]

2.2.1 相互検証方法

K 分割相互検証 (k 分割相互検証) k=5、10.20 など。通常、
ここに画像の説明を挿入
K 分割相互検証は、異なる分割を使用してランダムに p 回繰り返す必要があり、最終的な評価結果は、 p 回の k 分割交差検証結果。一般的なものは「10 分割 10 分割交差検証」です。

**Leave-One-Out (略して LOO)**

2.2.3 自助アプローチ

ブートストラップ サンプリングの
「アウトオブバッグ推定」。

比較:
ブートストラップ法は、データ セットが小さく、トレーニング/テスト セットを効果的に分割することが難しい場合に役立ちます。さらに、ブートストラップ法は初期データ セットから複数の異なるトレーニング セットを生成できるため、メソッドにとって大きなメリットがあります。アンサンブル学習など。ただし、ブートストラップ法によって生成されたデータセットは初期データセットの分布を変更するため、推定バイアスが生じます。したがって、初期データの量が十分である場合には、リーブアウト法と交差検証法がより一般的に使用されます。

2.2.4 チューニングと最終モデルへの参加

パラメータチューニング

2.3 パフォーマンス指標

パフォーマンス測定: 学習者の汎化パフォーマンスを評価します。

2.3.1 エラー率と精度

エラー率と精度は、分類タスクで最も一般的に使用される 2 つのパフォーマンス指標であり、二項分類タスクと多分類タスクの両方に適用できます。

2.3.2 精度、再現率、およびF 1

精度(精度)、再現率(再現率):相反する一対の尺度

ここに画像の説明を挿入ここに画像の説明を挿入
ここに画像の説明を挿入
「バランスポイント」(損益分岐点、BEPと呼ばれる)
ここに画像の説明を挿入

「マイクロプレシジョン」(マイクロP)、「マイクロリコール」(マイクロR)、「マイクロF1」(マイクロF1)

2.3.3 ROC と AUC

2.3.4 コストに敏感なエラー率とコスト曲線

2.4 比較試験

2.4.1 仮説検証

2.4.2 相互検証 t 検定

2.4.3 マクネマーの検定

2.4.4 フリードマンテストとネムネニ追跡テスト

2.5 バイアスと分散

2.6 読み物

今は見ないでください

おすすめ

転載: blog.csdn.net/Shanly_Zeng/article/details/124832542