Instalação do LangChain e caso de introdução

1. Introdução

LangChain é uma estrutura para desenvolver aplicativos orientados por modelos de linguagem

Website oficial

https://www.langchain.com/

Site oficial chinês

https://www.langchain.com.cn/

python langchain

https://python.langchain.com.cn/docs/get_started/introduction

 https://python.langchain.com/docs/get_started/introduction

2. Módulo

Existem seis módulos principais no langchain, a saber

  1. Entrada e saída do modelo (Model I/O): interface com o modelo de linguagem

    Para modelos, os três tipos diferentes de modelos a seguir podem ser usados ​​no LangChain

    LLMs

    Modelos de linguagem grande (LLMs) usam strings de texto como entrada e retornam strings de texto como saída.

    modelo de bate-papo

    O modelo de chat recebe como entrada uma lista de mensagens de chat e retorna mensagens de chat.

    modelo de incorporação de texto

    A incorporação de texto recebe texto como entrada e retorna uma lista de pontos flutuantes.

  2. Recuperação: Interface com dados específicos do aplicativo
  3. Pipeline: crie uma sequência de chamadas
  4. Agente: Deixe o pipeline escolher quais ferramentas usar com base em diretivas de alto nível
  5. Memória: mantenha o estado do aplicativo durante a execução do pipeline
  6. Callbacks: grave e transmita etapas intermediárias de qualquer pipeline

 3. Instalação

1. Defina permanentemente a fonte pip para fonte doméstica

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple

2. Instale o langchain. Se não quiser definir permanentemente a fonte doméstica, você pode especificar uma fonte temporária.

pip install langchain -i https://mirrors.aliyun.com/pypi/simple

4. Implementar um programa simples baseado no modelo LLM

1. O que é um modelo de linguagem grande (LLM)?

Grandes modelos de linguagem (LLM) referem-se a modelos de aprendizagem profunda treinados com grandes quantidades de dados de texto, que podem gerar texto em linguagem natural ou compreender o significado do texto da linguagem. Grandes modelos de linguagem podem lidar com uma variedade de tarefas de linguagem natural, como classificação de texto, perguntas e respostas, diálogo, etc., e são um caminho importante para a inteligência artificial.

Compreensão simples:

2. Exemplos atuais de modelos de linguagem grande (LLM)

  • GPT3/3.5/4(MoE), openAI Corporation
  • LLaMA (vazamento de metadados, carnaval comunitário de código aberto)
  • chatGLM (corpus chinês), código aberto da Universidade Tsinghua

3. A atual história de desenvolvimento de modelos de linguagem em grande escala

GPT3 lançado em 11 de junho de 2020

Em novembro de 2022, OpenAI lançou um novo modelo de API GPT3.5 (text-davinci-003)

Em dezembro de 2022, a popularidade da Internet explodiu

Em dezembro de 2022, foi lançada a primeira versão do Langchain

4. Vários problemas encontrados ao usar modelos de linguagem grandes

Então LangChain apareceu

 

 5. Aplicação do modelo LLM simples

Agora que temos o LangChain instalado e nosso ambiente configurado, podemos começar a construir nosso aplicativo LLM de modelo de linguagem.

Podemos executar um modelo LLM de código aberto localmente, mas um modelo LLM de melhor desempenho requer enormes recursos de GPU, que não podem ser suportados por computadores comuns em casa. Claro, se você tiver uma placa gráfica a100, você pode.

Como não podemos construí-lo localmente, podemos encontrar modelos que foram construídos por terceiros e fornecer boas APIs para usarmos, como

  • Wenxin ERNIE do Baidu
  • O significado geral de Ali, Qianwen
  • Aberto
  • Replicar

Essas empresas possuem APIs por meio das quais podem chamar os modelos que construíram.

O modelo de chamada de API do openai estrangeiro é usado aqui, então primeiro precisamos instalar o SDK:

pip install openai -i https://mirrors.aliyun.com/pypi/simple

referência de aquisição de chave de API openai
https://zhuanlan.zhihu.com/p/626463325

Precisamos definir variáveis ​​de ambiente no terminal.

export OPENAI_API_KEY="xxxx"


Alternativamente, você pode fazer isso dentro do tutorial Júpiter (ou script Python):

import os
os.environ["OPENAI_API_KEY"] = "xxxx"

Por exemplo, queremos construir um serviço que gere nomes de empresas com base nos produtos da empresa. Primeiro você precisa importar o wrapper LLM.

from langchain.llms import OpenAI


O wrapper pode então ser inicializado com quaisquer parâmetros. Neste exemplo, provavelmente queremos que a saída seja mais aleatória, então iremos inicializá-la com temperatura.

llm = OpenAI(temperature=0.9)

Se não quiser definir variáveis ​​de ambiente, você pode passar a chave diretamente por meio de openai_api_keyparâmetros nomeados ao inicializar a classe OpenAI LLM:

from langchain.llms import OpenAI

llm = OpenAI(openai_api_key="...")


Em seguida, ligue para o LLM com base na entrada

text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text)) # Feetful of Fun

Código completo

import os
from langchain.llms import OpenAI

os.environ["OPENAI_API_KEY"] = "xxxx"

llm = OpenAI(temperature=0.9)
text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text))

O caso acima demonstra a função mais básica do LLM: gerar novo texto com base no texto de entrada

O método de previsão no módulo llm real é usado especificamente para gerar texto correspondente com base no texto de entrada.

Portanto, o código acima também pode ser implementado da seguinte forma

import os
from langchain.llms import OpenAI

os.environ["OPENAI_API_KEY"] = "xxxx"

llm = OpenAI()

llm.predict("What would be a good company name for a company that makes colorful socks?",temperature=0.9)

Acho que você gosta

Origin blog.csdn.net/qq_34491508/article/details/134175347
Recomendado
Clasificación