Git – Paket herunterladen Git – Paket herunterladen Git – Paket herunterladen
Laden Sie git herunter, wget muss heruntergeladen werden ( GNU Wget 1.21.4 für Windows ),
Git Bash in Windows kann das native cmd vollständig ersetzen, Git Bash fehlen jedoch einige Befehle, die unter Linux weit verbreitet sind, wie z. B. der Befehl wget.
Nehmen wir hier den Installationsbefehl wget als Beispiel. Andere Befehle können auf die gleiche Weise gelöst werden:
1. Laden Sie das wget-Binärinstallationspaket herunter unter: https://eternallybored.org/misc/wget/
2. Entpacken Sie das Installationspaket und kopieren Sie wget.exe nach C:\Programme\Git\mingw64\bin\; (oder fügen Sie den Pfad von wget.exe in der entpackten Datei nach der Dekomprimierung zur Umgebungsvariablen hinzu).
Nachdem Sie GitHub - facebookresearch/llama: Inference code for LLaMA models heruntergeladen haben , führen Sie download.sh aus.
Anschließend werden Sie von download.sh aufgefordert, zunächst die Download-Adresse in der E-Mail einzugeben. Nach der Eingabe werden Sie gefragt, welche Modelle heruntergeladen werden sollen. Wir können sechs Modelle herunterladen: 7b, 13b, 70b, 7b-chat, 13b-chat und 70b-chat. Wenn Sie sie alle herunterladen möchten, drücken Sie einfach die Eingabetaste.
Unter diesen verfügt das 7b-Modell nur über eine konsolidierte Datei.00.pth mit einer Größe von 12,55 GB. Das 13b-Modell besteht aus 2 Dateien konsolidiert.00.pth und konsolidiert.01.pth mit jeweils 12,12 GB. Das 70b-Modell besteht aus 8 Dateien von konsolidiert.00.pth bis konsolidiert.07.pth. Die Dateigröße beträgt jeweils 16,06 GB.
Modell | Anzahl der Dateien | Dateigröße |
---|---|---|
7b | 1 | 12,55 GB |
13b | 2 | 24,24 GB |
70b | 8 | 128,48 GB |
7b-Chat | 1 | 12,55 GB |
13b-Chat | 2 | 24,24 GB |
70b-Chat | 8 | 128,48 GB |
Betriebsumgebung
Es wird empfohlen, Python 3.8 und höher zu verwenden.
Die wichtigsten abhängigen Bibliotheken sind wie folgt:
transformers
>= 4.28.0sentencepiece
>= 0,1,97gradio
Modell holen
Um den Nutzungsspezifikationen von LLaMA zu entsprechen, müssen die von uns veröffentlichten Lawyer LLaMA-Gewichte mithilfe der Original-LLaMA-Gewichtsdateien dekodiert werden (der relevante Code stammt von point-alpaca ).
-
Erhalten Sie das Original-LLaMA-Modell über offizielle Kanäle .
-
Erhalten Sie das Lawyer LLaMA-Gewicht über Hugging Face oder Baidu Netdisk (Extraktionscode: lwhx).
-
Führen Sie unter Verwendung der Dateien in der ursprünglichen LLaMA-Datei
7B/consolidated.00.pth
den folgenden Bash-Befehl aus, umdecrypt.py
die Lawyer LLaMA-Modelldatei zu dekodieren.
für f in "/path/to/model/pytorch_model"*".enc"; \ tun, wenn [ -f "$f" ]; Dann \ python3 decrypt.py "$f" "/path/to_original_llama/7B/consolidated.00.pth" "/path/to/model"; \ fi; \ Erledigt
Ersetzen Sie im obigen Befehl /path/to/model/
den Pfad zum heruntergeladenen Lawyer LLaMA.
- Laden Sie das Modul zum Abrufen von Rechtsartikeln von Baidu Netdisk herunter (Extraktionscode: r0vx) und führen Sie den
python server.py
Startdienst zum Abrufen von Rechtsartikeln aus. Er hängt standardmäßig an Port 9098.
Modelllauf
Über die Befehlszeile ausführen
Python demo_cmd.py \ --checkpoint /path/to/model \ --classifier_url "http://127.0.0.1:9098/check_hunyin" \ --use_chat_mode
Führen Sie es über die interaktive Schnittstelle aus
Führen Sie den folgenden Befehl aus, um die interaktive Webseite zu starten und darauf zuzugreifen http://127.0.0.1:7863
.
Python demo_web.py \ --port 7863 \ --checkpoint /path/to/model \ --classifier_url "http://127.0.0.1:9098/check_hunyin"
Wenn Sie den Nginx-Reverse-Proxy verwenden möchten, um auf diesen Dienst zuzugreifen, können Sie auf https://github.com/LeetJoe/lawyer-llama/blob/main/demo/nginx_proxy.md verweisen (Quelle: @LeetJoe ).
Die Bereitstellung war nicht erfolgreich, möglicherweise funktioniert der Bash-Schritt nicht.