(2)教師あり学習:回帰と分類の理解。
(3)線形回帰の定義:
(4)アルゴリズムの行列と配列:
配列:0/1/2 / 3次元配列; 3次元配列はRGBです。
行列:1. 2次元配列でなければなりません; 2.行列は特別な操作の要件を満たしています。
(5)エラーを減らすために、エラー関数が導入されています。
学習Webサイト:https://blog.csdn.net/wangqianqianya/article/details/82960410?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522158731140119725219920099%2522%252C%2522scm%2522%253A%252220140713.130102334.pc% 255Fall。%2522%257D&request_id = 158731140119725219920099&biz_id = 0&utm_source = distribute.pc_search_result.none-task-blog-2〜all〜first_rank_v2〜rank_v25-10
(6)統計学習アルゴリズムの最適化:(最小二乗法)1.正規方程式; 2.勾配降下。
勾配降下最適化の動的グラフ:
10サイクル後、損失値は次のように変化します。wおよびbは、12、4の値に徐々に近づきます。
100サイクル後、損失値は次のように変化します。wとbは値12,4に近くなります。
実行コード:
ランダムにインポート
インポート時間
matplotlib.pyplotをpltとしてインポートする
#新しいデータ
_xs = [範囲の(0、10)のxに対して0.1 * x]
_ys = [12 * i + 4 for i in _xs]
プリント(_xs)
プリント(_ys)
w = random.random()#重量
プリント(w)
b = random.random()#bias
プリント(b)
#y = wx + b
a1 = []
b1 = []
範囲内のi(10):
zip内のx、yの場合(_xs、_ys):#traverse _xs and _ys
print( "x ="、x、 "y ="、y)
o = w * x + b#予測値
print( "o =")
e =(o-y)#エラー
print( "e ="、e)
損失= e ** 2#損失関数
dw = 2 * e * x
db = 2 * e * 1
w = w-0.1 * dw#勾配降下w
b = b-0.1 * db #gradient descent b
print( 'loss = {0}、w = {1}、b = {2}'。format(loss、w、b))
a1.append(i)
b1.append(loss)
plt.plot(a1、b1)
plt.pause(0.1)
plt.show()
2.どの線形回帰アルゴリズムを使用できるかを考えていますか?(誰もが重複を書かないようにしてください)
回答:線形回帰は、特定の住宅価格や気象温度などのデータの連続的な変化を予測できる連続変数予測です。データをより科学的かつ正確に予測するための予測ツールとして使用できます。