Qu'est-ce qu'un perceptron - avec des images et des textes, du superficiel au profond

Qu'est-ce qu'un perceptron - avec des images et des textes, du superficiel au profond

introduction

La vie s'accompagne souvent de divers jugements logiques, comme voir des nuages ​​sombres flotter dans le ciel au loin, allumer le téléphone portable et voir les prévisions météo disant qu'il y a 40% de probabilité de pluie en 1 heure, à ce moment nous font souvent attendre Il pleut, l'arrêt de sortir avec un parapluie.

Le processus de pensée ci-dessus peut être résumé comme une "logique neurale" de "et". Lorsque "voir des nuages ​​sombres" et "prévision météo 40% de pluie" sont satisfaits en même temps, nous porterons un jugement de "il pleuvra plus tard, prenez un parapluie en sortant" ; si nous ne voyons que des "nuages ​​sombres", mais les prévisions météorologiques indiquent qu'il y a une probabilité de pluie de 0 % ou qu'aucun nuage noir n'est vu, et que les prévisions météorologiques ont une probabilité de pluie de 40 %, nous jugerons qu'il ne pleuvra pas plus tard.

Maintenant, résumons le processus tout à l'heure.

image-20230419183259978

Il y a deux entrées dans la logique : la vue des nuages ​​sombres et les prévisions météorologiques. Après un jugement logique, décidez d'apporter ou non un parapluie.

Au moment de juger, certaines personnes croiront davantage aux nuages ​​​​sombres qu'elles voient à l'œil nu, et les prévisions météorologiques ne sont qu'une aide.Après tout, les prévisions météorologiques sont souvent inexactes; Il se peut qu'il ne pleuve pas. Par conséquent, nous introduisons le concept de "degré de confiance". Je fais davantage confiance aux prévisions météo. Si je crois fermement que c'est 1 (cela peut aussi être 2, 3, 3,4, etc.), alors je donne à "prévisions météo" un niveau de confiance de 0,7 et à "voir des nuages ​​sombres" un niveau de confiance de 0,3.

image-20230419184253390

Je crois que les lecteurs doivent avoir un certain concept, mais le "jugement" et la "confiance" généraux actuels ne peuvent pas réellement résoudre le problème. Posez principalement les questions suivantes :

  • Comment la « confiance » affecte-t-elle le jugement ?
  • Comment se fait le « jugement » ?
  • Quelle est la relation entre le jugement dont j'ai parlé et le perceptron ?

Ensuite, nous allons mathématiser le problème pour déterminer quantitativement la relation logique.Ce processus est généralement appelé "modélisation mathématique".

Il existe de nombreux jugements dans la vie, certains sont aussi simples que de porter un parapluie ou non, et certains sont aussi compliqués que de répondre à un problème mathématique de haut niveau. Ces jugements sont tous basés sur les signaux d'entrée dans notre cerveau à partir de nombreux environnements externes et sont obtenus via le réseau neuronal complexe du cerveau.

L'exemple ci-dessus est un jugement très simple. Il est concevable que si ce jugement simple est combiné par milliers, il peut former un "réseau de neurones" très vaste et complexe, qui peut gérer les choses. L'unité qui compose ce réseau de neurones s'appelle un "neurone". En gros, on peut aussi l'appeler un "perceptron".

L'introduction du perceptron

version bébé

Utiliser x 1 x_1 respectivementX1Signifie "voir des nuages ​​sombres", x 2 x_2X2Signifie "prévision météorologique". Si des nuages ​​sombres sont vus, alors x 1 = 1 x_1=1X1=1 sinonx 1 = 0 x_1=0X1=0                                                                                                                                                                                             x_2=1X2=1 , s'il pleut avec 0% de probabilité,x 2 = 0 x_2=0X2=0

aay signifie "si vous devez apporter un parapluie", lorsque vous portez un parapluie,y = 1 y = 1y=1 , sinony = 0 y=0y=0

image-20230419190651723

Pour la commodité de la description, nous nous référons aux degrés de confiance 0,3 et 0,7 tels que pondérés ici. Maintenant, nous introduisons la "somme pondérée" aaun . Il est une somme pondérée des variables d'entrée.
a = 0,3x1 + 0,7x2 a=0,3x_1 + 0,7x_2un=0,3x _1+0,7x _2
x 1 , x 2 x_1,x_2X1,X2Il n'y a que 4 valeurs possibles pour , autant les lister, appelons la table une table de vérité : (Ici, on pense qu'on ne prend des parapluies que lorsqu'on voit des nuages ​​sombres et des prévisions météo en même temps)

x1 x_1X1 x2 x_2X2 aaun aay
0 0 0 0
1 0 0,3 0
0 1 0,7 0
1 1 1 1

La table d'observation peut préciser les règles de jugement suivantes : quand aaa est supérieur à une certaine valeurθ \thetaθ,时,aay prend 1, c'est-à-dire apporte un parapluie.
y = { 0 0,3 x 1 + 0,7 x 2 ≤ θ 1 0,3 x 1 + 0,7 x 2 > θ y= \left\{\begin{matrice} 0\quad 0,3x_1 + 0,7x_2\le \theta \\ 1\ quad 0.3x_1 + 0.7x_2> \theta \end{matrice}\right.y={ 00,3x _1+0,7x _2je10,3x _1+0,7x _2>je
En observant la table de vérité, on obtient très facilement θ \thetaLa valeur de θ peut être 0,8 ou 0,9, et la plage de valeurs est la suivante :
θ > 0,7 \theta>0,7je>0.7
Jusqu'à présent, nous avons modélisé mathématiquement le succès du « jugement », comme suit :

image-20230419192855334

Jusqu'à présent, un perceptron complet et pratique a été construit.Le cercle au milieu de la figure ci-dessus est le perceptron, qui a deux signaux d'entrée et un signal de sortie. Je l'ai nommé "Baby Perceptron".

Édition jeunesse

La croissance du perceptron du bébé

La logique de jugement du bébé perceptron est :
y = { 0 0,3 x 1 + 0,7 x 2 ≤ θ 1 0,3 x 1 + 0,7 x 2 > θ y= \left\{\begin{matrix} 0\quad 0,3x_1 + 0,7 x_2 \le \theta \\ 1\quad 0.3x_1 + 0.7x_2> \theta \end{matrice}\right.y={ 00,3x _1+0,7x _2je10,3x _1+0,7x _2>je
Maintenant, nous le transformons simplement :
y = { 0 0,3 x 1 + 0,7 x 2 + ( − θ ) ≤ 0 1 0,3 x 1 + 0,7 x 2 + ( − θ ) > 0 y= \left\{\begin{ matrix} 0\quad 0.3x_1 + 0.7x_2+(-\theta)\le0 \\ 1\quad 0.3x_1 + 0.7x_2+(-\theta)> 0 \end{matrice}\right.y={ 00,3x _1+0,7x _2+( - θ )010,3x _1+0,7x _2+( - θ )>0
On pose b = ( − θ ) b=(-\theta)b=( θ ) , la formule peut être encore simplifiée :
y = { 0 0,3 x 1 + 0,7 x 2 + b ≤ 0 1 0,3 x 1 + 0,7 x 2 + b > 0 y= \left\{\begin{matrix} 0 \quad 0.3x_1 + 0.7x_2+b\le0 \\ 1\quad 0.3x_1 + 0.7x_2+b> 0 \end{matrice}\right.y={ 00,3x _1+0,7x _2+b010,3x _1+0,7x _2+b>0
Ensuite, le schéma de principe du perceptron est le suivant :

image-20230419194256640

Rappelez-vous quand nous avons introduit le bébé perceptron, la variable somme pondérée aa introduite= 0,3 x 1 + 0,7 x
2 a=0,3x_1 + 0,7x_2un=0,3x _1+0,7x _2
A ce stade, autant reprendre son concept pour clarifier le concept de perceptron, on fait une nouvelle expression comme suit :
a = 0,3 x 1 + 0,7 x 2 + ba=0,3x_1 + 0,7x_2+bun=0,3x _1+0,7x _2+bL'expression
du jugement logique peut être simplifiée comme suit :
h ( a ) = y = { 0 a ≤ 0 1 a > 0 h(a)=y= \left\{\begin{matrix} 0\quad a\le0 \\ 1 \quad a> 0 \end{matrice}\right.h ( une )=y={ 0un01un>0

Ici, nous utilisons le symbole hhh au lieu defff , seul le signe est modifié, le sens n'est pas modifié.

Dessiner un schéma simplifié d'un perceptron rendra le concept plus clair :

image-20230419201103199

Jusqu'à présent, un perceptron complet et pratique a été construit, et la sommation et h ( a ) h(a) dans la figure ci-dessush ( a ) forment ensemble un perceptron, qui a trois signaux d'entrée et un signal de sortie. Je l'ai nommé "Youth Perceptron".

image-20230419201458220

Vieil homme discutant avec des adolescents version folle

Commençons à résumer le concept.

Dans le domaine de l'apprentissage en profondeur, nous avons des termes spéciaux pour le "degré de confiance", le signal d'entrée, le signal de sortie, etc. mentionnés ci-dessus, et nous allons maintenant les présenter. Tout d'abord, exprimez le "degré de confiance" 0,3 et 0,7 discuté précédemment comme : w 1 , w 2 w_1, w_2w1w2

image-20230419202201795

Pour résumer la discussion ci-dessus :
h ( une ) = { 0 une ≤ 0 1 une > 0 h(a)= \left\{\begin{matrice} 0\quad a\le0 \\ 1\quad a> 0 \end {matrice}\right.h ( une )={ 0un01un>0

a = w 1 x 1 + w 2 x 2 + ba=w_1x_1 + w_2x_2+bun=w1X1+w2X2+b

variable nom
www Poids Plus le poids est élevé, plus le rôle du signal dans le jugement est important
bbb biais Faire des ajustements en fonction des résultats du jugement
h ( une ) h (une)h ( une ) fonction d'activation Il existe plusieurs options, l'exemple utilisé ici est la fonction step

À ce stade, le perceptron complet est présenté à tous, et les concepts et les noms professionnels ont été précisés.

En général, on exprime le perceptron comme suit :

image-20230419203330446

fonction d'activation

Il existe de nombreuses options pour la fonction d'activation. L'exemple ci-dessus utilise une fonction en escalier et l'expression est la suivante :
h ( a ) = { 0 a ≤ 0 1 a > 0 h(a)= \left\{\begin{ matrice} 0\quad a\le0 \\ 1\quad a> 0 \end{matrice}\right.h ( une )={ 0un01un>0
image-20230419203752372

De plus, vous avez le choix entre sigmoïde et ReLu. En prenant sigmoïde comme exemple, l'expression est :
h ( x ) = 1 1 + exp ⁡ ( − x ) h(x)=\frac{1}{1+\operatorname{exp}(-x)}h ( x )=1+exp ( x )1
image-20230419204158994

Tout juste pour commencer avec l'apprentissage en profondeur, vous pouvez ignorer pourquoi vous devez introduire différentes fonctions d'activation, quelle est la fonction de la fonction sigmoïde, pourquoi elle semble si étrange, quels sont les avantages par rapport à la fonction d'étape, et vous ferez l'expérience de la fonction d'activation dans le rôle d'études suivant. Juste besoin de savoir qu'il existe de nombreuses options pour la fonction d'activation ici.

Applications Perceptrons

porte ET

La table de vérité est la suivante :

x1 x_1X1 x2 x_2X2 aay
0 0 0
1 0 0
0 1 0
1 1 1

Nous sommes maintenant face à l'image du perceptron pour confirmer la valeur.

image-20230419202201795

Valeurs de poids et biais w 1 , w 2 , b w_1,w_2,bw1,w2,b a une variété de méthodes de valeur, telles que : 0,5, 0,5, -0,7.

x1 x_1X1 x2 x_2X2 aaun aay
0 0 0 0
1 0 -0,2 0
0 1 -0,2 0
1 1 0,3 1

image-20230419204912912

Il peut également être pris séparément : 1, 1, -1.3.

x1 x_1X1 x2 x_2X2 aaun aay
0 0 0 0
1 0 -0,3 0
0 1 -0,3 0
1 1 0,7 1

OU porte

La table de vérité est la suivante :

x1 x_1X1 x2 x_2X2 aay
0 0 0
1 0 1
0 1 1
1 1 1

Valeurs de poids et biais w 1 , w 2 , b w_1,w_2,bw1,w2,b a une variété de méthodes de valeur, telles que : 0,5, 0,5, -0,2.

x1 x_1X1 x2 x_2X2 aaun aay
0 0 0 0
1 0 0,3 1
0 1 0,3 1
1 1 0,7 1

Perceptron et apprentissage en profondeur

Perceptrons et réseaux de neurones

Un seul perceptron ne peut réaliser que des fonctions simples, mais lorsque des dizaines de milliers ou des centaines de millions de perceptrons coopèrent, les problèmes qui peuvent être résolus ne sont pas si simples. On appelle l'ensemble du perceptron un "réseau de neurones"

Quelle est la relation entre le perceptron et le deep learning ?

En prenant la "porte ET" de la partie application du perceptron comme exemple, nous avons déterminé manuellement son poids et son biais selon la table de vérité de la porte ET, de sorte que le perceptron réalise la fonction de la porte ET. Cependant, un réseau composé de dizaines de milliers de perceptrons aura d'innombrables poids et biais et, à l'heure actuelle, il n'est plus réaliste de confirmer manuellement leurs valeurs. L'algorithme d'apprentissage en profondeur peut résoudre ce problème. L'apprentissage en profondeur apprendra un poids et un biais possibles selon la table de vérité pour réaliser la fonction de la porte ET, et n'aura plus besoin de personnes pour confirmer les paramètres.

Je suppose que tu aimes

Origine blog.csdn.net/qq_34022877/article/details/130253377
conseillé
Classement