Regressionsanpassung | Gray-Wolf-Algorithmus-Optimierung Kernel Extreme Learning Machine (GWO-KELM) MATLAB-Implementierung

Diese Woche erhielt ich eine private Nachricht von einem Fan, in der er mich bat, einen Artikel auf GWO-KELM zu veröffentlichen, also habe ich die heutige Pause genutzt und ihn aktualisiert (ich hoffe, es ist nicht zu spät).

Fügen Sie hier eine Bildbeschreibung ein

Im vorherigen Artikel stellte der Autor das Prinzip und die Implementierung von ELM und KELM vor. ELM bietet die Vorteile einer schnellen Trainingsgeschwindigkeit und einer geringen Komplexität und überwindet die lokalen Minima, die Überanpassung und die unangemessene Auswahl der Lernrate herkömmlicher Gradientenalgorithmen. KELM, on Andererseits verwendet es die Kernel-Lernmethode und ersetzt die zufällige Zuordnung durch die Kernel-Zuordnung, wodurch die durch die zufällige Zuweisung von Neuronen in der verborgenen Schicht verursachten Generalisierungs- und Stabilitätsverschlechterungsprobleme effektiv verbessert werden können und eine bessere Leistung erzielt wird, wenn es auf nichtlineare Probleme angewendet wird [1] ].

Der Optimierungsalgorithmus für graue Wölfe (GWO) erreicht den Zweck der Optimierung durch die Simulation des Raubtierverhaltens grauer Wölfe und basiert auf dem Mechanismus der Zusammenarbeit von Wolfsgruppen. Dieser Mechanismus hat gute Ergebnisse beim Ausgleich von Erkundung und Entwicklung erzielt und die Konvergenzgeschwindigkeit und -lösung verbessert Es weist eine gute Leistung in Bezug auf Genauigkeit auf und zeichnet sich durch einfache Prinzipien, Parallelität, einfache Implementierung, wenige Parameter, die angepasst werden müssen, keine Gradienteninformationen des Problems sowie eine starke globale Suchfähigkeit aus.

Daher wird der Autor ELM und KELM in Kombination mit dem Gray-Wolf-Optimierungsalgorithmus verwenden, um das Regressionsanpassungsproblem anzuwenden, und es mit herkömmlichen Algorithmen für maschinelles Lernen wie dem BP-Neuronalnetzwerk und PSO-KELM vergleichen.

00 Katalog

1 GWO-KELM-Modell
2 Codeverzeichnis
3 Vorhersageleistung
4 Quellcode-Erfassung
Referenzen

01 GWO-KELM-Modell

1.1 GWO- und KELM-Prinzipien

GWO ist der Gray-Wolf-Optimierungsalgorithmus und KELM ist die Kernel Extreme Learning Machine. Der Autor hat seine spezifischen Prinzipien im vorherigen Artikel erläutert. Der Link zum Artikel lautet wie folgt, und ich werde ihn hier nicht wiederholen.

Das Prinzip der nuklearen extremen Lernmaschine und ihre MATLAB-Code-Implementierung.
Das Prinzip des Gray-Wolf-Optimierungsalgorithmus und seine MATLAB-Code-Implementierung.

1.2 GWO-KELM-Vorhersagemodell

Kombinieren Sie GWO mit KELM und verwenden Sie den vom KELM-Modell vorhergesagten MAE als Fitness von GWO. Der Modellprozess ist wie folgt:
Fügen Sie hier eine Bildbeschreibung ein

02 Codeverzeichnis

Fügen Sie hier eine Bildbeschreibung ein

Unter diesen ist MY_XX_Reg.m das Hauptprogramm, das unabhängig ausgeführt werden kann, und result.m wird zum Vergleichen der Vorhersageergebnisse verschiedener Algorithmen verwendet. result.m kann 5 MY_XX_Reg.m nacheinander ausführen und die Vorhersageergebnisse vergleichen.

03 Vorausschauende Leistung

3.1 Bewertungsindikatoren

Um die Genauigkeit und Präzision der Vorhersageergebnisse zu überprüfen, werden der mittlere quadratische Fehler (Root Mean Square Error, RMSE), der mittlere absolute prozentuale Fehler (Mean Absolute Percentage Error, MAPE) und der mittlere absolute Wertfehler (Mean Absolute Error) ermittelt , MAE) werden jeweils als Bewertungskriterien verwendet.
Fügen Sie hier eine Bildbeschreibung ein

In der Formel sind Yi und Y ^ i der wahre Wert bzw. der vorhergesagte Wert; n ist die Anzahl der Stichproben.

3.2 Vergleich der Ergebnisse
Fügen Sie hier eine Bildbeschreibung ein

Fügen Sie hier eine Bildbeschreibung ein
Fügen Sie hier eine Bildbeschreibung ein

Fügen Sie hier eine Bildbeschreibung ein

Es ist ersichtlich, dass unter den Vorhersagemodellen das durch GWO und PSO optimierte KELM-Vorhersagemodell gute Ergebnisse erzielt hat und die Vorhersageleistung von GWO besser ist als die von PSO und seine Konvergenzgeschwindigkeit und -genauigkeit viel besser sind als die von PSO.

04 Quellcode-Erfassung

Auf dem öffentlichen Konto des Autors: KAUs Cloud-Experimentalplattform

Verweise

[1] Huang GB, Zhou HM, Ding 513.

Noch ein Hinweis: Wenn Partner Optimierungsprobleme haben, die gelöst werden müssen (in irgendeinem Bereich), können Sie diese an mich senden, und ich werde Artikel, die Optimierungsalgorithmen verwenden, um diese Probleme zu lösen, gezielt aktualisieren.

Wenn dieser Artikel für Sie hilfreich oder inspirierend ist, können Sie unten rechts auf „Gefällt mir“ (ง •̀_•́)ง klicken (Sie müssen nicht klicken). Wenn Sie Anpassungswünsche haben, können Sie eine private Nachricht senden Nachricht an den Autor.

Supongo que te gusta

Origin blog.csdn.net/sfejojno/article/details/132636532
Recomendado
Clasificación