Pytorch-線形回帰

線形回帰の基本的な要素:
1.モデル:
簡単にするために、我々は、価格は2つのだけの要因、すなわち面積(平方メートル)と建物の年数(年)の住宅事情に依存していることを前提としています。次に、我々はこの2つの要因の価格で特定の関係を探求したいです。線形回帰は、線形関係は、それぞれの入力と出力との間に想定されています。
ここに画像を挿入説明

2.データ収集:
私たちは、通常、このようなエリアやFanglingを対応する複数の家屋とその実際の販売価格などの実際のデータ、一連の収集。私たちは、本当の価格の価格を予測するために、誤差モデルを最小限にするために上記のモデルパラメータでこのデータを見つけることを願っています。機械学習の用語では、データセットは、トレーニングデータセット(トレーニングデータセット)またはトレーニングセット(トレーニングセット)と呼ばれ、家を試料(サンプル)と呼ばれ、実際の販売価格タグ(ラベルと呼ばれています)、2つの要因が)特性(機能と呼ばれるラベルを予測するために使用しました。前記サンプルは、機能を特徴づけるために使用されます。
3.損失関数:
モデルのトレーニング、我々は予測値と真の値の価格との間の誤差を測定する必要があります。通常、我々は、エラーとして、負でない数を選択するであろう、そして小さい値が小さい誤差を表します。一般的な選択は、二乗関数です。それを評価IIサンプルインデックスエラーここに画像を挿入説明
最適化機能4 -確率的勾配降下法:
モデルの損失関数と単純な形は、問題の上記誤差最小化溶液を処方することができるときに直接発現。このような解決策は、解析解(解析解)と呼ばれています。線形回帰二乗誤差は、このセクションで使用され、このカテゴリーに入るだけ。しかし、最も深い学習モデルと分析ソリューションは、反復モデルパラメータのアルゴリズム有限数を最適化することにより、可能な限り損失関数の値を低減するだけでなく。そのような溶液は、数値解法(数値解)と呼ばれています。最適化アルゴリズムの数値解では、確率的勾配降下法少量(ミニバッチ確率的勾配降下法)が広く深さの学習に使用されています。これは非常に単純なアルゴリズムは次のとおり、ランダム選択などのモデルパラメータの初期値の第1のセットを選択するステップと、次に、各反復がそれほど損失関数の値ことを低減することができる、複数の反復パラメータ。各反復において、第1のランダム均一は、最終的に少量(ミニバッチ)B、次いで、データサンプルの少量(勾配)のモデルの微分平均損失パラメータ、およびからなる訓練データ・サンプルの固定数をサンプリングこの結果は、現在の反復の減少の所定量としてのモデルパラメータの正の数の積です。![ここの挿入の説明](https://img-blog.csdnimg.cn/20200214183014315.png

元の記事を公開 ウォンの賞賛0 ビュー7

おすすめ

転載: blog.csdn.net/weixin_45665394/article/details/104315794