Grundlegende Studiennotizen zum neuronalen Netz (1) Induktionsmaschine (künstliches Neuron)

Inhaltsverzeichnis

Kapitel 2: Induktionsmaschine (künstliches Neuron)

2. Perceptron

2. Einfache Logikschaltung

2.1 Einfache Logikschaltung

2.2 Code-Implementierung:

2.3 Gewichte und Vorurteile importieren

2.4 Perceptron-Einschränkungen

2.5 Realisierung von mehrschichtigem Perzeptron (Lösen eines exklusiven ODER-Gatters)

2.6 Zusammenfassung


Kapitel 2: Induktionsmaschine (künstliches Neuron)

Perceptron als Algorithmus des Ursprungs des neuronalen Netzwerks

2. Perceptron

Konzept: Das Perzeptron ist eigentlich eine Frage, ob es fließen soll oder nicht. Fluss bedeutet 1, aber nicht Fluss bedeutet 0, 0 entspricht "keine Signalübertragung" und 1 entspricht "Sendesignal".

                      

x1, x2 werden eingegeben, y wird ausgegeben, w1, w2 sind Gewichte, y wird nur aktiviert, wenn die Summe von x * w den Schwellenwert θ überschreitet

 

2. Einfache Logikschaltung

2.1 Einfache Logikschaltung

Hier ist die Logikschaltung des UND-Gatters, des NAND-Gatters oder des Gatters relativ einfach, dh das Neuron gemäß dem UND-NOR zu aktivieren und dann die Formel des obigen Perzeptrons zu kombinieren, um zusammenzufassen, ob die Summe den Schwellenwert überschreitet.

2.2 Code-Implementierung:

   Und Torrealisierung: Andere sind ähnlich

  

2.3 Gewichte und Vorurteile importieren

        Wenn gemäß der obigen Formel θ eine negative Zahl ist, können wir sie in -b ändern und erhalten

 

Die Rolle von Vorspannung und Gewicht ist unterschiedlich. Gewicht ist ein Parameter, der die Wichtigkeit des Eingangssignals steuert , und Vorspannung ist ein Parameter, der die Leichtigkeit der Aktivierung eines Neurons anpasst (der Grad, in dem das Ausgangssignal 1 ist).     

Numpy-Code-Implementierung:

Hinweis: Dieser Teil des Gewichts wird aufgrund von Erfahrungen berechnet

2.4 Perceptron-Einschränkungen

 

 

Der durch die Kurve geteilte Raum wird als nichtlinearer Raum bezeichnet , und der durch die gerade Linie geteilte Raum wird als linearer Raum bezeichnet

Perzeptrone können AND-, OR- und NAND-Gatter darstellen. Sie sind alle linear, aber XOR ist nicht linear. Es kann nicht durch eine einzelne Schicht von Perzeptronen dargestellt werden, sondern kann durch mehrere Perzeptrone dargestellt werden .

2.5 Realisierung von mehrschichtigem Perzeptron (Lösen eines exklusiven ODER-Gatters)

 

 

Bei der Untersuchung der Kämmlogik löst diese Mehrfachstruktur das XOR-Gatter

 

Code:

Die Logik lautet wie folgt:

 

Angenommen, das exklusive ODER-Gatter ist ein neuronales Netzwerk mit einer Mehrschichtstruktur . Hier heißt die Spalte ganz links Schicht 0 , die mittlere Spalte Schicht 1 und die Spalte ganz rechts Schicht 2.

 

Perceptrons können nichtlineare Darstellungen durch überlagerte Schichten ausführen und theoretisch auch die Computerverarbeitung darstellen

2.6 Zusammenfassung

Ist der mathematische Inhalt von Lehrbüchern das Wichtigste, um die Beziehung zwischen neuronalen Perceptron-Netzen zu verstehen

Ich denke du magst

Origin blog.csdn.net/qq_37457202/article/details/107475986
Empfohlen
Rangfolge