Sobald der vordere Fuß von llama2 Open Source war, habe ich versucht, 70B auf dem hinteren Fuß aufzubauen

1 Beantragen Sie die Erlaubnis zum Herunterladen von Modellen

https://ai.meta.com/resources/models-and-libraries/llama-downloads/

Füllen Sie eine kleine Authentifizierung aus, dieses Mal habe ich sie in etwa 10 Minuten bestanden

Der Inhalt der Mail ist wie folgt:

2 Laden Sie den Lama-Quellcode herunter

Git-Klon [email protected]:facebookresearch/llama.git

3 Laden Sie das Modell herunter

Verwenden Sie zum Herunterladen download.sh im Quellcode

Wie nachfolgend dargestellt

Im ersten Schritt werden Sie aufgefordert, die Autorisierungs-URL in die E-Mail einzugeben, die sehr lang ist und mit https://download.llamameta.net beginnt

Im zweiten Schritt können Sie den Namen des Modells eingeben, das Sie herunterladen möchten, hier ist 70B-Chat

Danach werden mehrere LIZENZ- und tokenizer.model-Dateien usw. heruntergeladen.

Danach ist die Modelldatei, die wir am meisten brauchen. Wie nachfolgend dargestellt

4 Extras herunterladen

22.07.2023 11:20:30 Uhr, die Zeit zum Starten des Downloads ist 21.07.2023 17:30 Uhr, in der Vergangenheit habe ich viele Modelle heruntergeladen, aber ich habe gerade herausgefunden, dass ein Fehler gemeldet wurde. . . .

Ich weiß nicht, ob ich weitermachen kann

Führen Sie dann das Skript download.sh erneut aus und stellen Sie fest, dass das heruntergeladene Modell erneut heruntergeladen wird. ε=(´ο`*))) Leider! ! ! !

Sie können nur den Quellcode ändern und die heruntergeladenen überspringen.

Ich habe 00 01 02 03 04 05 06 und 07 heruntergeladen. Da 07 das letzte ist, bin ich nicht sicher, ob der Download abgeschlossen ist, daher wird er als nicht heruntergeladen betrachtet. Außerdem wurde 00 überschrieben, als ich den Download erneut versuchte. sh-Skript. Es ist ebenfalls unvollständig, daher habe ich das download.sh-Skript in das folgende Bild geändert

if [[ $s != "01" && $s != "02" && $s != "03" && $s != "04" && $s != "05" && ​​$s != "06" ]]

wget xxxx

fi

22.07.2023 14:50:21 Endlich ist der Download abgeschlossen

Das Modell ist etwa 129G groß

5 Führen Sie die offizielle Demo aus

24.07.2023 22:10

Der Beamte sagte, dass hier 8 MPs benötigt werden, also habe ich beim Ausführen 8 GPUs angegeben

CUDA_VISIBLE_DEVICES=1,2,3,4,6,7,8,9 Torchrun --nproc_per_node 8 --master_port=29501 example_chat_completion.py --ckpt_dir llama-2-70b-chat/ --tokenizer_path tokenizer.model --max_seq_len 512 --max_batch_size 4

Überprüfen Sie nach dem Starten des Befehls den GPU-Status, wie in der folgenden Abbildung dargestellt

Terminalausgabe anzeigen

Es lief reibungslos! 

6 Feinabstimmung

Nachtragsergänzung

Supongo que te gusta

Origin blog.csdn.net/wade1010/article/details/131857538
Recomendado
Clasificación