深ハンズオン科学学習Pytorch Task01

綿密な研究の現在と将来の開発のための良好な見通しを持っています。時間の流行時には、オープンクラスの科学体験型の学習pytorch深度バージョンに在籍し、この知識を利用することができます生活の中で学習の将来に希望が学びました。

主に理解の進入深さの研究である線形回帰、ソフトマックスと分類モデル、MLP、簡単な、将来は再び、コンテンツの特定のpytorchをプログラミングするかの簡単な概要:最初のクラスは、主に3つの部分から構成され書き込み。

直線回帰

住宅価格と住宅地と例の年齢では、基本的な線形回帰モデルは次のように表すことができる
ここに画像を挿入説明
一般的に使用され、予測値と真値の誤差を測定するために使用される損失関数、平均二乗誤差関数であるとして、以下:
ここに画像を挿入説明
損失関数を取得した後、我々は、損失関数が最小となる所望のアプローチは、最初の正規方程式方法で、この方法は、関数の単純導出され、導出プロセスは、この方法は非常に推奨されないが、不吉な説明しました。別の方法は、最も広く使用される勾配降下法、勾配降下機能手段は、最速の現在のポイント、種類の勾配降下法品種、SGD、アダム、RMSprop、これらの方法の進行方向に沿って減少しています核となるアイデアは同じですが、さまざまな状況で使用する、異なるイテレーションの方法があります。

ソフトマックスと分類モデル

このセクションでは、主にコンセプトソフトマックスアルゴリズムとクロスエントロピー損失関数についてです。

ソフトマックスアルゴリズム

マルチ分類問題では、一方では、起因する不確実性の出力層の出力値の範囲に、我々は直感的に難しく、これらの値の重要性を判断します。実際のラベルが離散値、測定することが困難での離散的な値と不確定性範囲の出力値との誤差であるので、一方で、我々は、マルチクラス分類アルゴリズムのためのソフトマックスアルゴリズムを使用して、以下のように三つのカテゴリーの出力、特定の式であると仮定されます。
ここに画像を挿入説明

クロスエントロピー損失関数

損失の計算に使用される機能は、平均二乗誤差関数である前に、バックの問題に対処するとき、この方法がより有用であるが、提案の分類では、この機能を使用して、所望の値に誤差を算出することは困難ですエントロピー損失関数を横断:
ここに画像を挿入説明

多層パーセプトロン

MLPは、本質的に図MLPの例では、隠された層ニューラルネットワークの隠れ層含有5つの隠れユニットであり、含有される
ここに画像を挿入説明
MLPのためのニューラルネットワークアルゴリズムと差がないと計算し、主工程を含む:
(1)ランダムな重みw及びバイアスB初期化
伝播の前に予測値を算出する(2)
。(3)と最もいくつかは、W aおよびbを最適化するために勾配降下法を用いて、損失関数の計算をA

難し放課後のタイトル

放課後のプログラミングの質問が間違っ質問、プログラミングまだまだ練習しなければならないようです。
ここに画像を挿入説明
効果y.view(B)は、Y寸法で自動的に、* Bになるか、またはBである場合-1、唯一のパラメータは寸法次元に変更されたときに決定
されy_hat形状[10,1 ]; Yは一次元、y_hat大きさ形状[10]であり、yは同じではないので、問題Bのオプションがあります

これまでのところ、最初の部分が終わり、次の部分は、NLPの基本です。

出版元の記事 ウォンの賞賛0 ビュー30

おすすめ

転載: blog.csdn.net/weixin_45325331/article/details/104295148