機械学習のレビュー
1 - 教師あり学習の一般的な 2 つのタイプはどれですか? (2 つ選択)
A. クラスタリング
B. 回帰
C. 分類
紀元前
2 - 教師なし学習は次のうちどれですか?
A. クラスタリング
B. 回帰
C. 分類
あ
3 - 線形回帰の場合、モデルは\(f_{w,b}(x) = wx + b\)
です。次のどれが入力または特徴であり、モデルに入力され、モデルはそれらを介して予測を行います。 ?
A. \(m\)
B. \(x\)
C. \((x,y)\)
D. \(w\)と\(b\)
B
4 - 線形回帰の場合、 \(J(w,b)\)がゼロに非常に近いパラメータ\(w\)と\(b\)が見つかった場合、どのような結論を導き出すことができますか? A. 選択したパラメータ\(w\)と\(b\)の値により、アルゴリズムはトレーニング セットに非常によく適合しますB. 選択したパラメータ\(w\)と\(b\)の値)アルゴリズムがトレーニング セットに非常によく適合するようにします。 トレーニング セットへの適合が非常に悪いです。C. これは不可能です。コードにバグがあるはずです。
あ
5 - 勾配降下法は、コスト関数 J が最小になるようなパラメーター値 w と b を見つけるアルゴリズムです。\(\frac{\partial J(w,b)}{\partial w}\) が
負の数 (ゼロ未満)の場合、 1 回の更新ステップの後、\(w\)はどうなりますか?
A. \(w\) が増加するか減少するかを判断できない
B. \(w\) が増加する
C. \(w\)が減少する
D. \(w\)は変化しない
B
6 - 線形回帰の場合、パラメーター b の更新ステップは何ですか?
A. \(b = b - \alpha\frac{1}{m}\sum\limits_{i=1}^{m}(f_{w,b}(x^{(i)}) - y^ {(私)})\)
B. \(b = b - \alpha\frac{1}{m}\sum\limits_{i=1}^{m}(f_{w,b}(x^{(i)}) - y^ {(i)})x^{(i)}\)
あ