서버는 압도되었고 북경 대학교의 대규모 법률 모델 인 ChatLaw가 인기를 얻었습니다. Zhang San이 어떻게 선고되었는지 직접 알려주세요!

대형 언어 모델은 수직 산업 분야로 계속 확장되고 있으며 이번에는 북경 대학의 법적 모델입니다.

큰 모델이 다시 "폭발"했습니다.

대형 모델 연구 테스트 포털

GPT-4 기능 연구 포털(고급/브라우저 경고 시 방문 계속):
https://gpt4test.com

어젯밤 대형 법률 모델인 ChatLaw가 Zhihu의 인기 검색어 1위를 차지했습니다. 최고조에 달했을 때는 약 2천만 명에 달했습니다.

이 ChatLaw는 포괄적인 법률 서비스를 제공하기 위해 노력하는 Peking University 팀에서 발행합니다. 한편으로는 현재 전국적으로 개업 변호사가 부족하고 공급이 법적 수요에 비해 훨씬 적고 다른 한편으로 일반인은 법률 지식과 규정에 자연적인 격차가 있어 법적 무기를 사용할 수 없습니다. 자신을 보호하기 위해.

최근 큰 언어 모델의 등장은 일반 사람들이 법률 관련 문제를 대화식으로 상담할 수 있는 훌륭한 기회를 제공할 뿐입니다.

현재 ChatLaw에는 다음과 같은 세 가지 버전이 있습니다.

  • ChatLaw-13B는 Jiang Ziya의 Ziya-LLaMA-13B-v1 교육을 기반으로 한 학술 데모 버전이며 중국 성능이 매우 좋습니다. 그러나 복잡한 논리를 사용하는 법적 질문과 답변은 효과적이지 않으며 더 큰 매개변수를 가진 모델로 해결해야 합니다.

  • 아카데믹 데모 버전인 ChatLaw-33B는 Anima-33B 교육을 기반으로 하며 논리적 추론 능력이 크게 향상되었습니다. 그러나 Anima에는 중국어 말뭉치가 없기 때문에 Q&A에 영어 데이터가 자주 나타납니다.

  • ChatLaw-Text2Vec은 93w 판결 사례로 구성된 데이터 세트를 사용하여 사용자의 질문 정보를 해당 법률 문서와 일치시킬 수 있는 BERT 기반 유사성 일치 모델을 학습했습니다.

공식 데모에 따르면 ChatLaw는 사용자가 파일 및 녹음과 같은 법적 자료를 업로드할 수 있도록 지원하여 시각적 지도, 차트 등을 요약 및 분석하고 생성하도록 돕습니다. 또한 ChatLaw는 사실에 기반한 법률 자문, 법률 문서를 생성할 수 있습니다. GitHub의 별 수는 1.1k에 도달했습니다.

공식 홈페이지 주소 :
https://www.chatlaw.cloud/

종이주소 :
https://arxiv.org/pdf/2306.16092.pdf

GitHub 주소 :
https://github.com/PKU-YuanGroup/ChatLaw

현재 ChatLaw 프로젝트의 인기로 인해 서버가 일시적으로 충돌하고 컴퓨팅 성능이 상한에 도달했습니다. 팀은 수정 작업을 진행 중이며 관심 있는 독자는 GitHub에서 베타 모델을 배포할 수 있습니다.

편집자 자신은 아직 내부 테스트를 위해 대기열에 있습니다. 그래서 다음은 일상적인 온라인 쇼핑에서 발생할 수 있는 "반품할 이유가 없는 7일" 문제에 대해 ChatLaw 팀에서 제공한 공식 대화의 예입니다. ChatLaw의 답변은 매우 포괄적입니다.

하지만 편집자는 ChatLaw의 아카데믹 데모 버전을 사용해 볼 수 있다는 점을 발견했지만 아쉽게도 법률 상담 기능에 접근할 수 없으며 간단한 대화 상담 서비스만 제공합니다. 다음은 내가 묻고자 하는 몇 가지 질문입니다.

사실 최근 대규모 법률 모델을 발표한 곳은 북경대학만이 아니다. 지난 달 말 Powerlaw Intelligence와 Zhipu AI는 수천억 개의 매개변수가 있는 법적 수직 모델인 PowerLawGLM을 공동으로 출시했습니다. 이 모델은 중국 법률 시나리오의 적용에서 독특한 이점을 보여준 것으로 보고됩니다.

출처: Power Law Intelligence

ChatLaw의 데이터 소스 및 교육 프레임워크

첫 번째는 데이터 구성 입니다 . ChatLaw 데이터는 주로 포럼, 뉴스, 법률 기사, 사법 해석, 법률 상담, 법률 심사 질문 및 판결 문서로 구성되며 대화 데이터는 정리 및 데이터 향상을 거쳐 구축됩니다. 동시에 Peking University School of International Law 및 업계의 유명한 로펌과 협력함으로써 ChatLaw 팀은 데이터의 전문성과 신뢰성을 보장하면서 적시에 지식 기반을 업데이트할 수 있습니다. 아래에서 구체적인 예를 살펴보겠습니다.

법률 및 규정 및 사법적 해석에 근거한 시공 사례:

실제 법률 컨설팅 데이터를 수집하는 예:

변호사 시험 객관식 질문을 구성하는 예:

그런 다음 모델 수준이 있습니다. ChatLAW를 교육하기 위해 연구팀은 LoRA(Low-Rank Adaptation)를 사용하여 Ziya-LLaMA-13B를 미세 조정했습니다. 또한 이 연구는 모델 환각의 문제를 완화하기 위한 자기 암시의 역할도 소개합니다. 교육 프로세스는 여러 A100 GPU에서 수행되며 deepspeed는 교육 비용을 더욱 줄입니다.

다음 그림은 ChatLAW의 아키텍처 다이어그램입니다.연구는 법률 데이터를 모델에 주입하고 지식을 특수 처리하고 강화하는 동시에 추론 중에 여러 모듈을 도입하여 일반 지식 모델, 전문 모델 및 지식을 통합합니다. 하나로 베이스.

이 연구는 또한 모델이 올바른 법률과 규정을 생성하고 모델 착시를 최소화할 수 있도록 추론할 때 모델에 제약을 둡니다.

처음에 연구팀은 검색을 위해 MySQL, Elasticsearch와 같은 전통적인 소프트웨어 개발 방법을 시도했지만 결과는 만족스럽지 않았습니다. 따라서 연구는 임베딩을 위해 BERT 모델을 사전 훈련한 다음 Faiss와 같은 방법을 사용하여 코사인 유사도를 계산하고 사용자 쿼리와 관련된 상위 k개의 법률 및 규정을 추출하기 시작했습니다.

이 접근 방식은 사용자의 질문이 모호할 때 최적이 아닌 결과를 생성하는 경우가 많습니다. 따라서 연구원들은 사용자 쿼리에서 핵심 정보를 추출하고 이 정보의 벡터 임베딩을 사용하여 일치 정확도를 향상시키는 알고리즘을 설계합니다.

대형 모델은 사용자 쿼리를 이해하는 데 상당한 이점이 있으므로 본 연구에서는 LLM을 미세 조정하여 사용자 쿼리에서 키워드를 추출합니다. 여러 키워드를 얻은 후 연구는 알고리즘 1을 사용하여 관련 법률 조항을 검색합니다.

실험 결과

이 연구는 10년 이상의 국가 사법 시험 문제를 수집하고 2,000개의 문항과 표준 답변이 포함된 테스트 데이터 세트를 작성하여 모델이 법적 객관식 문제를 처리하는 능력을 측정했습니다.

그러나 연구는 각 모델의 정확도가 일반적으로 낮다는 것을 발견했습니다. 이 경우 정확도만 비교하는 것은 의미가 없습니다. 따라서 본 연구에서는 리그 오브 레전드의 ELO 매칭 메커니즘을 활용하여 모델-대결 ELO 메커니즘을 생성하여 각 모델이 법적 객관식 문제를 처리하는 능력을 보다 효과적으로 평가합니다. 다음은 ELO 점수 및 승률 차트입니다.

이상의 실험 결과를 분석하여 다음과 같은 사실을 알 수 있다.

(1) 법률 관련 질문 및 답변과 규제 조항의 데이터를 도입하면 객관식 질문에 대한 모델의 성능을 어느 정도 향상시킬 수 있습니다.

(2) 학습을 위해 특정 유형의 작업 데이터를 추가하면 이러한 유형의 작업에 대한 모델의 성능이 크게 향상됩니다. 예를 들어 ChatLaw 모델이 GPT-4보다 나은 이유는 많은 수의 객관식 질문이 학습 데이터로 사용되기 때문입니다.

(3) 법적 객관식 문제는 복잡한 논리적 추론이 필요하므로 일반적으로 매개변수가 큰 모델이 더 잘 수행됩니다.

참조

[1]https://www.zhihu.com/question/610072848
[2]https://mp.weixin.qq.com/s/bXAFALFY6GQkL30j1sYCEQ

대형 모델 AI 풀 스택 핸드북

업계 최초 AI 풀스택 매뉴얼 다운로드 가능! !

최대 3,000페이지에 달하는 방대한 언어 모델 기술 개발, AIGC 기술의 최신 동향 및 응용, 딥러닝 기술 등 AI 방향을 다루고 있습니다. WeChat 공개 계정은 "Xi Xiaoyao Technology Talk"에 주목하고 자료를 다운로드하려면 "789"라고 회신하십시오.
[그림]

추천

출처blog.csdn.net/xixiaoyaoww/article/details/131553644