シグモイド関数とソフトマックス関数の違いと接続

ディレクトリ

起源ロジスティック回帰

シグモイド

ソフトマックス


起源ロジスティック回帰

ロジスティック回帰モデルは、セカンドクラス分類に使用される機械学習モデルです(ロジスティック回帰はマルチクラス分類を行うことができることは言うまでもありません。これは、セカンドクラス分類子の組み合わせ戦略であり、ロジスティック回帰分類子自体の構築は半セントではありません。関係)。

ロジスティック回帰では、標本カテゴリを予測するために使用される仮説関数は

バイアス項パラメーターとベクトル転置の詳細を無視して、 Xi Xiが大きなことを話します)であり、シグモイド関数のイメージは次のようになります。

したがって、サンプルを正のカテゴリー(カテゴリー1と表示)として、サンプルを負のカテゴリー(カテゴリー0と表示)として予測しますしたがって、シグモイド(z)関数の場合、z = 0の点が分類の臨界点です。したがって、ロジスティック回帰では、ポイントは分類の重要なポイントです。
しかし、なぜか考えましたか?(はい、それはあなたの頭を軽く叩くことによって決定されません)
Xiao Xiの質問方法が非常に奇妙であると思うなら、Xiao Xiは質問方法を変えます、それ何を意味するか知っていますか?「特徴ベクトルとモデルパラメータの内積」のような表面的な意味しか表していないのでしょうか。
Xiao Xiの話をゆっくり聞いて、ゆっくりと指をスライドさせて、考えに遅れないようにしてください。
まず、モデルパラメータはベクトルであり、次元はサンプルの次元と一致しています(オフセット項の詳細は無視)。見栄えを良くするために、代わりにwを使用します
このいわゆるモデルパラメーターwをよく見てみましょう。このwは本質的に、と表されます。ね??これはどのようになりますか?取り出された2つのwを理解するには?
実際には、限り、これはクラス1のベクターとして見られている直接の記述、ベクトルがします0のカテゴリーの直接の説明として見られ、新しい世界への扉が開きます。Xiao Xiが以前に言ったことを思い出してください。ロジスティック回帰モデルでは、カテゴリーを予測するために基本的に使用される臨界点は、つまり、それはどういう意味ですか?

ベクトルaとベクトルbについて、長さが1であると仮定すると、ベクトルaとベクトルbの間の角度が最小の場合、それらの内積は最大になります。もちろん、aとbの長さが制限されない、より一般的なステートメントに一般化するために、aとbの間の角度が最小の場合、aとbのコサイン類似度を最大と呼びます

2つのベクトル間の角度が小さいほど、どういう意味ですか?つまり、これらの2つのベクトルが類似しているほど、それらはより近くなります。つまり、カテゴリ1と特徴ベクトルxの親密さからカテゴリ0とxの親密さを引いたものです。したがって、ロジスティック回帰の仮想関数、つまり特徴ベクトルxを表す場合、つまりサンプルは、カテゴリ1に近いため、カテゴリ予測は1になります。同様に、xがカテゴリ0に近い場合、カテゴリは0であると予測されます。
続けて、私たちは魔法の機能ロジスティック回帰モデルに上記の論理と仮定しますの拡張私たちの上に交換があった。

そのため、発見された何の心配はありませんか?記事「の小さな夜を忘れないでくださいにロジック・バックリターン結論はそれを得たの」?

神、ロジスティック回帰の仮想関数はP(Y = 1 | X)とまったく同じです!全部このシグモイド関数は正確には何ですか?すべてが本当に偶然ですか?いいえ、Xiao Xiはチェックする必要があります!是非、メスを持って解剖してください!

シグモイド

美学のために、私たちは直接W1代わりの代わりにW0を使用しての、

私たちは分子と分母を分割し、同じをした場合ゲット

:!ショックを受けましたか!
Xiao Xiは以前、w1とxの内積はw1とxの親密さを表すと述べましたが、これは「xとすべてのカテゴリの親密性合計に対するカテゴリ1とxの親密性比率」を意味しませんか?
比率なので、0と1の間の数でなければなりません。そして、なぜこの比率を解釈できるのでしょうか。それはxでのカテゴリー1の重みではありませんか?xの中心にあるカテゴリ1のコンポーネントがxの中心にあるカテゴリ0のコンポーネントを超える場合、ロジスティック回帰モデルは当然、カテゴリ1とx〜を結び付ける必要があります。つまり、カテゴリ1を予測カテゴリとして使用します。
同時に、このコンポーネントが大きいほど、カテゴリ1とxを結合した後にxを満たす確率が高くなります。したがって、この比率もカテゴリ1 Pの事後確率です(y = 1 | x)!ほら、すべてが偶然ではありません。シグモイド関数の重要性は非常に深いです。
シグモイド(w1・x)は「カテゴリ1とxの親密度のxとすべてのカテゴリの親密度の合計に対する比率」を表しますが、ここには明らかに2つだけのカテゴリ、つまり1と0があります。つまり、シグモイドは
セカンドクラスの分類にのみ使用できる関数。
分類したいカテゴリーが2を超える場合、関数を使用して「特定のカテゴリーのxに対する親密度のxとすべてのカテゴリーの親密度の合計に対する比率」を表すこともできますか?

 

ソフトマックス

今回は後退します!分類タスクにk個のカテゴリがある場合、w1とw0を使用してカテゴリ1と2を表すのと同じように、w1、w2、w3 ... wkを使用して各カテゴリを表します。
これまでの経験によると、この「カテゴリと特徴ベクトルx jの親密」なルックスを表現することができ、我々は親密さとクラスJ、シグモイドものの例に従う、その後、X Xと親密のすべてのカテゴリの割合が、それは次のとおりです。

分母整頓、私は何を発見しました!これは、ディープラーニングで広く使用されている有名

なSoftmax関数です。元の見かけ上は難しいSoftmax関数はシグモイドの一般化された形式であり、その深い意味はSigmoidと変わりません。やあ、がっかりです。Softmax╮(is▽╰)╭Wei Xiaoxiaoもそうですか?

公開された45元の記事 ウォンの賞賛2 ビュー5228

おすすめ

転載: blog.csdn.net/xixiaoyaoww/article/details/105459727
おすすめ