Download und Installation von Deepfacelab 2.0, Schulungs- und Synthese-Tutorials, detaillierte Erklärung der Parameter (sehr detailliert, fragen Sie mich einfach, wenn Sie es nicht verstehen)

1. Download- und Installationshandbücher, Referenzdokumente und Modell-Downloads

Link auf Github:
https://github.com/iperov/DeepFaceLab
Link zur Softwareversion:
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPwLeitfaden
: https://mrdeepfakes.com/forums/threads/guide-deepfacelab - 2-0-guide.3886/
Vorab trainiertes Modell: https://mrdeepfakes.com/forums/forums/trained-models.34/Softwarebeschreibung
: Die ersten beiden sind AMD-Grafikkartenversionen und die letzten beiden sind 30er-Serien Grafikkarten. Eine davon ist die Grafikkartenversion der 20er-Serie.
Fügen Sie hier eine Bildbeschreibung ein

2. Gebrauchsanweisung

Zum Entpacken und Installieren genügt ein Doppelklick. Es besteht aus drei Teilen, von denen der interne Quellcode nicht berührt werden sollte.
Arbeitsbereich, data_dst-Datei-Operationsverzeichnis des Zielvideos, data_src ursprüngliches Video-Operationsverzeichnis, Modelldatei-Speicherverzeichnis,
Fügen Sie hier eine Bildbeschreibung ein
Bat-Startdatei
Fügen Sie hier eine Bildbeschreibung ein

2.1 Fledermaus-Bedienungsanleitung

Das offizielle Dokument enthält eine detaillierte Einführung
. Leitfadendokument: https://mrdeepfakes.com/forums/threads/guide-deepfacelab-2-0-guide.3886/
Spezifische Schritte, die verwendet werden müssen:
2) Bilder aus Video data_src.bat extrahieren. Video in Bild umwandeln
3) Bilder aus Video extrahieren data_dst FULL FPS.bat Zielvideo in Bild umwandeln
4) data_src faceset extract.bat Quellgesicht zuschneiden und in data_src/aligned speichern
4.1) data_src ausgerichtetes Ergebnis anzeigen.bat Zugeschnittenes Gesicht anzeigen Als Ergebnis , nicht frontale und verschwommene Gesichtsmaterialien manuell löschen
5) data_dst faceset extract.bat Schneiden Sie das dst-Gesicht zu und speichern Sie es in data_dst/aligned
5.1) data_dst viewaligned results.bat Sehen Sie sich die Ergebnisse des zugeschnittenen Gesichts an
6) Trainieren Sie das SAEHD.batt-Training Modell, im Allgemeinen dieses Modell verwenden
7) SAEHD.bat-Syntheseergebnisse zusammenführen, jeden Frame des Bildes in data_dst laden und die Ergebnisse in data_dst/aligned kombinieren, um das Gesicht zu ändern, eine zusammengeführte und merged_mask-Datei wird in data_dst generiert
8 )zusammengeführt mp4.bat liest die Audiospurinformationen in dst.mp4 und fügt die Bilder in einer MP4-Datei zusammen

3 Modellschulung

Modellauswahl: Wählen Sie im Allgemeinen das Modell der Liae-Serie. Das Modell der Liae-Serie ist einfacher zu trainieren, benötigt weniger Videospeicher, ist schnell und verfügt über bessere Licht- und Schatteneffekte als das DF-Modell.
Auswahl der Auflösung: Je größer die Auflösung, desto schwieriger ist es, das Gesicht klar zu trainieren. Im Allgemeinen ist eine Auflösung von 192 bis 256 ausreichend. Sofern die Details nicht sehr hoch sind und die Trainingszeitkosten keine Rolle spielen, kann ein Modell mit höherer Auflösung verwendet werden.
F, WF-Auswahl: F-Gesicht enthält nicht den Stirnteil, WF-Gesicht enthält den Stirnteil.
Beschreibung der Trainingsparameter:
Automatische Sicherung alle N Stunden (0…24 ?:help): Sichern Sie das Modell alle wie viele Stunden.
Vorschauverlauf schreiben ( y/n ?: help ): n, kein Speichern erforderlich, jedes Mal, wenn das Modell gespeichert wird, wird ein Ergebnisbild gespeichert.
Zieliteration: 0, 0 bedeutet kontinuierliches Training. Wenn Sie aufhören möchten, drücken Sie einfach Strg + C, um anzuhalten und das Modell wird automatisch gespeichert.
SRC-Flächen zufällig umdrehen ( y /n ?:help ): Wenn die Farbe und Beleuchtung einiger Flächen im DST-Material und im SRC-Material entgegengesetzt sind, können Sie diese SRC-Spiegelung aktivieren SRC-Material zufällig spiegeln.
DST-Flächen zufällig umdrehen (y/n ?: help): n, DST-Material zufällig spiegeln, dies muss im Allgemeinen nicht aktiviert werden.
Batch_size (?: help): Batch-Größe trainieren, wenn der Videospeicher überläuft gemeldet wird, reduzieren Sie die Größe.
Augen- und Mundpriorität (y/n?:help): Augen- und Mundprioritätstraining. Wenn es die Zeit erlaubt, können Sie es in der frühen Phase einschalten und in der späteren Phase ausschalten; wenn die Zeit reicht nicht zulassen, können Sie es für das Training ständig eingeschaltet lassen. Gleichmäßige Gierverteilung der Proben ( y/n ?:help ): Dies ist hilfreich für das Training von Seitenflächen. Es wird empfohlen, die Unschärfemaske für
das Training einzuschalten ( y/
n ?:help): Reduzieren Sie das Lernen des DST-Hintergrunds, achten Sie mehr auf das Lernen des Maskenbereichs und
verwenden Sie es in Kombination mit der Hintergrundstilleistung, um einen besseren DST-Hintergrundeffekt zu erzielen. Wenn Sie der Meinung sind, dass der Hintergrundstilleistungsparameter ebenfalls vorhanden ist groß, erfahren Sie mehr wie „Das dst-Gesicht“ kann aktiviert und der Leistungsparameter des Hintergrundstils reduziert werden.
Platzieren Sie Modelle und Optimierer auf der GPU (y/n ?:help):y, aktivieren.
AdaBelief-Optimierer verwenden? ( y/n ?:help ) :y, aktivieren.
Lernraten-Dropout verwenden ( n/y/cpu ?:help ):y, aktivieren.
Zufälliges Warp von Proben aktivieren ( y/n ?:help ): Verzerrt die Materialien nach dem Zufallsprinzip, um das Training allgemeiner zu gestalten. Es kann in der frühen Phase aktiviert und in der späteren Phase deaktiviert werden. Es kann jederzeit aktiviert werden.
Zufälliger Farbton/Sättigung/Lichtintensität ( 0,0 … 0,3 ?:help ): Dies ist eine zufällige Operation, die am SRC-Datensatz durchgeführt wird, indem das SRC-Material basierend auf der Farbe, dem Licht, der Sättigung usw. der SRC-Daten leicht gemittelt wird Der Effekt kann nicht aktiviert werden. Nicht groß, er reduziert hauptsächlich das Flimmern von SRC-Materialien. Wenn Sie zu Beginn Materialien auswählen, sollten Sie versuchen, eine übermäßige SRC-Farbinkonsistenz zu vermeiden, da es sonst zu Flackern kommt und der Wert unter 0,1 liegen sollte.
GAN-Leistung (0,0 … 5,0 ?:help): GAN, im Allgemeinen unnötig. Diese Option muss deaktiviert werden, nachdem das Basismodell trainiert wurde.
Aktivieren Sie zufälliges Warp von Stichproben (y/n ?:help) und aktivieren Sie Lernraten-Dropout verwenden (n /y/cpu ?:help ), um detailliertere und schärfere Gesichtsergebnisse zu erhalten. Wenn Sie es verwenden möchten, wählen Sie einfach 0,01.
Auch das GAN-Training dauert lange.
GAN-Patchgröße (3-640?:Hilfe): Verbessert die Trainingsqualität von GAN, belegt Videospeicher und verwendet standardmäßig einen Auflösungswert von 1/8.
GAN-Dimensionen (4-512 ?:help): Dimensionen des GAN-Netzwerks. Je höher die Dimensionen, desto besser die Qualität des GAN. Verwenden Sie den Standardwert 16.
Stärke des Gesichtsstils (0,0…100,0 ?:help): und Stärke des Hintergrundstils (0,0…100,0 ?:help): Steuern Sie die Stilübertragung des Gesichtsteils (FSP) oder Hintergrundteils (BSP) des Bildes, die zur Übertragung verwendet wird Ziel/Zweck Die Farbinformationen des Bodengesichts (data_dst) werden auf das endgültige vorhergesagte Gesicht übertragen, wodurch die Beleuchtung und die Farbanpassung verbessert werden. Hohe Werte können jedoch dazu führen, dass das vorhergesagte Gesicht weniger wie Ihr Quellgesicht als vielmehr wie Ihr Ziel aussieht Gesichtsabteilung. Dies kann bis zu einem gewissen Grad mit Licht und Schatten auf dst und einigen Gesichtsmerkmalen übereinstimmen, aber je höher der Wert, desto schlechter kann das Ergebnis sein. Passen Sie diesen Wert entsprechend der tatsächlichen Situation an. Es wird empfohlen, FSP auf 0,01 und BSP auf 0,1 einzustellen.
Farbübertragung für src-Faceset ( none/rct/lct/mkl/idt/sot ?:help ): Dies dient dazu, einige Farben des dst-Gesichts auf src zu übertragen, wodurch die Farbe des src-Gesichts näher an dst herankommt. Es gibt verschiedene Farbübertragungsalgorithmen, die im Allgemeinen rct verwenden. Aktivieren Sie diese Option, wenn die Änderung der Quellfarbe nicht offensichtlich ist und die Änderung der Farbe des Ziels offensichtlich ist. Sie müssen es zu anderen Zeiten nicht einschalten. Dies ist ein Datensatz, der src während des Trainings hinzufügt. Das Referenzdokument bietet eine Einführung in diese Farbmigrationsalgorithmen.
Gradientenbeschneidung aktivieren ( y/n ?:help ): Normalerweise gibt es ein vorab trainiertes Modell, sodass kein erneutes Training eines vorab trainierten Modells erforderlich ist. Schalten Sie es einfach aus.

4 Syntheseparameter und Verwendung

Mit der Tabellentaste können Sie das Gesichtsaustauschbild und die folgenden Syntheseparameteranweisungen umschalten.
Fügen Sie hier eine Bildbeschreibung ein
Fügen Sie hier eine Bildbeschreibung ein
Modus: Entsprechend, 1-6, ~ ist das ursprüngliche Gesicht, 1 ist das geänderte Gesicht, 23456 basiert normalerweise auf einem Algorithmus, der auf dem dst-Gesicht basiert es wird nur 1 verwendet, Sie können es manuell anpassen, um zu sehen, welches
geeignet ist; Mask_mode
: entspricht dem Gesichtsaustauschteil nach innen schrumpfen lassen. Dieser Wert ist wichtiger und sollte entsprechend dem Ergebnis des Gesichtsaustausches angepasst werden; Versuchen Sie es zwischen 0 und 100 hin und her.
Blur_mask_modifier: entspricht E/D und verwischt die Kanten, um die Kanten des Face-Swappings natürlicher zu gestalten. Versuchen Sie es zwischen 50 und 150 hin und her.
Motion_blur_power: Entspricht R/F, Bewegung Unschärfe, grundsätzlich nicht verwendet;
Out_face_scale: Entspricht U/J, vergrößert und verkleinert das Gesicht, grundsätzlich nicht verwendet;
Color_transfer_mode: Entspricht C, beachten Sie, dass es keine Rolle spielt, ob dieser für das Training verwendet wird, auch wenn CT nicht für das Training aktiviert ist, ist dies immer noch der Fall. Wenn Sie den Algorithmus in CT verwenden können, wird rct empfohlen. Verwenden Sie sot-m mit Vorsicht, sot-m beansprucht viele Ressourcen und verlangsamt die Synthesegeschwindigkeit;
Sharpen_mode: Entspricht N, Auswahl des Schärfungsmodus, grundsätzlich nicht verwendet;
Blursharpen_amount: Unschärfeauswahl schärfen, kann zum Verwischen verwendet werden, Sharpen_mode darf nicht sein. None funktioniert nur, im Grunde nicht erforderlich;
Super_resolution_power: Superauflösung, nicht zu hoch, zu hoch sieht unrealistisch aus, versuchen Sie, entsprechend der Bildauflösung zu wählen, Sie können es unter 50 versuchen; die
letzten drei werden verwendet, um die zu reduzieren Bildqualität, grundsätzlich gebraucht Weniger als.

Guess you like

Origin blog.csdn.net/m0_59156726/article/details/131212814