ボーゆうGongyiのAI「ハンズオン科学のPyTorch深さバージョン学習」タスク01の研究ノートを

ボーゆうGongyiのAI「ハンズオン科学のPyTorch深さバージョン学習」タスク01の研究ノートを

タスク01:線形回帰、ソフトマックスと分類モデル、多層パーセプトロン

流行、滞在家の間に、毎日座って、これにより、チュ部門が病気。今、私は本当にハードに、書き込み研究ノート、ライフああに立っていました。友人は、より多くのトマトを食べて、食べてスープを食べるように説得ますが、現在の環境では購入することはないトマトの料理は購入することができ、私のパイプではありません。本当に難しいです。
しかし、かなり良い収穫があるだけの人にそれについての幸せを作るために、有益な何かを学ぶために、一つのこと、国家の危機、にきびのリードです。

だから、Xieboゆう感じ。

このフェーズでは、基本的な回帰や分類モデルを学習することで、より基本的な知識に属します。

私の現在のモデルがメインに戻ることで、今では、基本的な分類をしない分類は非常になじみのないことができるため、ラメです。今回は、コードに正直に書き込みコードは、後に、最終的に私は、クロスエントロピー損失関数自体のために、それを学習させ、ソフトマックス操作が来るpytorchクロスエントロピー損失関数があり、知っているが、このことを理解を深め機能の喪失は、それは計算にもつながった他のデータ、pytorchクロスエントロピー損失関数に関係していない、値が正しく分類されるべきであるだけ気に、非常に興味深いことができ、パラメータは泥棒面白いに入力されます。一般的には、その理由は、ネットワークとそのターゲットの出力はまったく同じになります、実際には、本当にそうである、我々は二つのパラメータでの損失関数のパスを記述して右、同じ形状でなければなりませんか?このpytorch交差エントロピー損失関数は、最初のパラメータは、ネットワークの出力、右だけ小さな一次元、その番号に対応する正しい分類カテゴリとすることが唯一の第二引数第二引数です。彼はそれがより奇妙であると言い、これはなぜ毛布のですか?あなたは、この機能の実現にpytorchはCで書かれているので、非常に面倒になりますpytorchコードを見て、答えを見つけたい場合は残念ながら、あなたはPythonでトラックを運命、それはトーチを追跡するまでもあります。 _C._nn.nll_loss()関数。

import torch

l=torch.nn.CrossEntropyLoss()

a = torch.randn((1, 10))
print(a)

print(l(a, torch.Tensor([0]).long()))
a_softmax = a.exp()/a.exp().sum()
print(-torch.log(a_softmax[0, 0]))

常にテテホイールそんなに、すべての後に、含まれていてもよい文書を見つけることや関数の性質を検出するために、独自の実験を行うれる現代のソフトウェア開発、。したがって、上記の例では、非常に詳細で関数のこの機能の損失を説明する必要があります。まず、ターゲットはテンソルロングタイプである必要があり、そして第二に、位置が正確に分類されていることのみインデックスを対象とすべきです。それは私がちょうど泥棒興味深い場所だけでなく、より奇妙な場所言ったことです。それは今考え出しカウントすることができます。

完全に接続されている説明するレッスンは本当にボクシング手を離れ、音楽がアップする、いくつかの古代の知識を私が見直されるため、実際に、私は自分自身が欠落している(または忘れて)い、があります真実。

上記。

公開された10元の記事 ウォンの賞賛8 ビュー4581

おすすめ

転載: blog.csdn.net/ICE_KoKi/article/details/104287023