5番目の割り当て:5.線形回帰アルゴリズム

 (2)教師あり学習:回帰と分類の理解。

 (3)線形回帰の定義:

 (4)アルゴリズムの行列と配列:

配列:0/1/2 / 3次元配列; 3次元配列はRGBです。

行列:1. 2次元配列でなければなりません; 2.行列は特別な操作の要件を満たしています。

 (5)エラーを減らすために、エラー関数が導入されています。

 学習Webサイト:https://blog.csdn.net/wangqianqianya/article/details/82960410?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522158731140119725219920099%2522%252C%2522scm%2522%253A%252220140713.130102334.pc% 255Fall。%2522%257D&request_id = 158731140119725219920099&biz_id = 0&utm_source = distribute.pc_search_result.none-task-blog-2〜all〜first_rank_v2〜rank_v25-10

(6)統計学習アルゴリズムの最適化:(最小二乗法)1.正規方程式; 2.勾配降下。

 

勾配降下最適化の動的グラフ:

10サイクル後、損失値は次のように変化します。wおよびbは、12、4の値に徐々に近づきます。

100サイクル後、損失値は次のように変化します。wとbは値12,4に近くなります。

 

 

実行コード:

ランダムにインポート

インポート時間

matplotlib.pyplotをpltとしてインポートする

 

#新しいデータ

_xs = [範囲の(0、10)のxに対して0.1 * x]

_ys = [12 * i + 4 for i in _xs]

プリント(_xs)

プリント(_ys)

w = random.random()#重量

プリント(w)

b = random.random()#bias

プリント(b)

#y = wx + b

a1 = []

b1 = []

範囲内のi(10):

    zip内のx、yの場合(_xs、_ys):#traverse _xs and _ys

        print( "x ="、x、 "y ="、y)

        o = w * x + b#予測値

        print( "o =")

        e =(o-y)#エラー

        print( "e ="、e)

        損失= e ** 2#損失関数

        dw = 2 * e * x

        db = 2 * e * 1

        w = w-0.1 * dw#勾配降下w

        b = b-0.1 * db #gradient descent b

        print( 'loss = {0}、w = {1}、b = {2}'。format(loss、w、b))

    a1.append(i)

    b1.append(loss)

    plt.plot(a1、b1)

    plt.pause(0.1)

plt.show()

2.どの線形回帰アルゴリズムを使用できるかを考えていますか?(誰もが重複を書かないようにしてください)

回答:線形回帰は、特定の住宅価格や気象温度などのデータの連続的な変化を予測できる連続変数予測です。データをより科学的かつ正確に予測するための予測ツールとして使用できます。

 

おすすめ

転載: www.cnblogs.com/zxf001/p/12751999.html