GPT-Rechtsbereich

Rechtsgebiet

GesetzGPT

Github: https://github.com/pengxiao-song/LaWGPT

  • Einführung: Ein großes Sprachmodell basierend auf chinesischen Rechtskenntnissen.

  • Daten: Basierend auf den Daten öffentlicher Rechtsdokumente, Daten gerichtlicher Untersuchungen und anderen Datensätzen des Chinese Judgment Document Network werden Stanford_alpaca- und Selbstinstruktionsmethoden zur Generierung von Dialog-Frage- und Antwortdaten sowie wissensbasierte Datengenerierung und ChatGPT verwendet wird eingeführt, um die Daten zu bereinigen und die Erstellung hochwertiger Datensätze zu unterstützen. .

  • Trainingsmethode: (1) Legal-Base-7B-Modell: Legal-Base-Modell, das 500.000 chinesische Urteilsdokumentdaten für die sekundäre Vorschulung verwendet. (2) LaWGPT-7B-beta1.0-Modell: Rechtsdialogmodell, Aufbau eines 300.000 hochwertigen juristischen Fragen- und Antwortdatensatzes und Feinabstimmung basierend auf Legal-Base-7B-Anweisungen. (3) LaWGPT-7B-Alpha-Modell: Erstellen Sie direkt einen 30-W-Rechtsfrage- und Antwortdatensatz basierend auf Chinesisch-LLaMA-7B und optimieren Sie die Anweisungen. (4) LaWGPT-7B-beta1.1-Modell: Rechtsdialogmodell, Aufbau eines hochwertigen 35-W-Rechtsfrage- und Antwortdatensatzes und Feinabstimmung basierend auf Chinesisch-Alpaka-plus-7B-Anweisungen.

ChatLaw

Github: https://github.com/PKU-YuanGroup/ChatLaw

  • Einführung: Chinesisches Rechtsmodell

  • Daten: Bestehend hauptsächlich aus Foren, Nachrichten, gesetzlichen Bestimmungen, gerichtlichen Auslegungen, Rechtsberatungen, rechtlichen Prüfungsfragen und Urteilsdokumenten. Die Dialogdaten werden dann durch Bereinigung, Datenverbesserung usw. erstellt.

  • Trainingsmethoden: (1) ChatLaw-13B: Basierend auf dem Jiang Ziya Ziya-LLaMA-13B-v1-Modell und trainiert mit der Lora-Methode. (2) ChatLaw-33B: Basierend auf Anima-33B, trainiert mit der Lora-Methode.

LexiLaw

Github: https://github.com/CSHaitao/LexiLaw

  • Einführung: Chinesisches Rechtsmodell

  • Daten: BELLE-1,5M allgemeine Daten, 52.000 einrunde Frage- und Antwortdaten und 92.000 situative Frage- und Antwortdaten mit rechtlicher Grundlage im LawGPT-Projekt, Daten zu juristischen Prüfungen und Daten zur Feinabstimmung von Rechtsanweisungen im Lawyer LLaMA-Projekt, 20.000 hoch Baidu verfügt über hochwertige Frage- und Antwortdaten von Hualv.com und kennt die Sammlung von 36.000 rechtlichen Frage- und Antwortdaten, Gesetzen und Vorschriften, juristischen Nachschlagewerken und juristischen Dokumenten.

  • Trainingsmethode: Basierend auf dem ChatGLM-6B-Modell werden für das Modelltraining die drei Methoden Freeze, Lora und P-Tuning-V2 verwendet.

RECHT-GPT

Github: https://github.com/LiuHC0428/LAW-GPT

  • Einführung: Chinesisches Rechtsmodell (Haizhi)

  • Daten: Vorhandene juristische Frage- und Antwortdatensätze und qualitativ hochwertige Frage- und Antwortdaten zu Rechtstexten, die auf der Grundlage von Selbststudien erstellt wurden, die sich an gesetzlichen Bestimmungen und realen Fällen orientieren.

  • Trainingsmethode: Basierend auf ChatGLM-6B wird die Lora&16bit-Methode für das Modelltraining verwendet.

Anwalt-Lama

Github: https://github.com/AndrewZhe/lawyer-llama

  • Einführung: Chinesisches Recht LLaMA

  • Daten: 7.000 Rechtsprüfungsdaten, 14.000 Rechtsberatungsdaten

  • Trainingsmethode: Unter Verwendung von Chinese-LLaMA-13B als Basis, ohne kontinuierliche Schulung des Rechtskorpus, wird SFT unter Verwendung allgemeiner Anweisungen und juristischer Anweisungen durchgeführt.

Ich denke du magst

Origin blog.csdn.net/WASEFADG/article/details/132287372
Empfohlen
Rangfolge