Uso de DB-GPT

1. Instalación del código fuente

Instalar

Siga los pasos a continuación para instalar DB-GPT

1. Requisitos de hardware

Insertar descripción de la imagen aquí
Si su memoria de video no es suficiente, DB-GPT admite versiones cuantificadas de 8 y 4 bits
Insertar descripción de la imagen aquí

2. Instalar

git clone https://github.com/eosphoros-ai/DB-GPT.git

Actualmente, Sqlite se utiliza como base de datos predeterminada, por lo que la implementación rápida de DB-GPT no requiere la implementación de servicios de bases de datos relacionados. Si desea utilizar otras bases de datos, primero debe implementar los servicios de bases de datos relacionados. Actualmente uso Miniconda para el entorno Python y la gestión de dependencias de paquetes para instalar Miniconda.

conda create -n dbgpt_env python=3.10
conda activate dbgpt_env
pip install -e .

Antes de utilizar la base de conocimientos

python -m spacy download zh_core_web_sm

Si ya instaló el entorno y necesita crear modelos, vaya al sitio web oficial de Huggingface para descargar el modelo.
Insertar descripción de la imagen aquí

cd DB-GPT
mkdir models and cd models
#### llm model
git clone https://huggingface.co/lmsys/vicuna-13b-v1.5
or
git clone https://huggingface.co/THUDM/chatglm2-6b

#### embedding model
git clone https://huggingface.co/GanymedeNil/text2vec-large-chinese
or
git clone https://huggingface.co/moka-ai/m3e-large

Configure el archivo .env del que debe provenir. Copie y cree en env.template.

Si desea utilizar el servicio de modelos grandes de Openai, puede consultar las preguntas frecuentes sobre el uso de LLM.

Los parámetros básicos se pueden configurar en el archivo .env, como configurar LLM_MODEL para el modelo a usar.

Los parámetros básicos se pueden configurar en el archivo .env, como configurar LLM_MODEL para el modelo a usar. (Vicuna-v1.5, el modelo actual Vicuna-v1.5 (basado en llama2) ha sido de código abierto. Se recomienda utilizar este modelo configurando LLM_MODEL=vicuna-13b-v1.5

3. correr

(Opcional) cargar ejemplos en SQLlite

bash ./scripts/examples/load_examples.sh

En plataforma Windows:

.\scripts\examples\load_examples.bat

1.Ejecute el servidor db-gpt

python pilot/server/dbgpt_server.py

Abra el navegador y visite http://localhost:5000.
Insertar descripción de la imagen aquí
Si desea obtener más información sobre la interfaz de usuario web, visite https://github./csunny/DB-GPT/tree/new-page-framework/datacenter

python pilot/server/dbgpt_server.py --light

Múltiples GPU

DB-GPT carga las GPU disponibles de forma predeterminada. También puede especificar los ID de GPU modificando el archivo .env CUDA_VISIBLE_DEVICES=0,1

También puede especificar el ID de la gpu para comenzar

# Specify 1 gpu
CUDA_VISIBLE_DEVICES=0 python3 pilot/server/dbgpt_server.py

# Specify 4 gpus
CUDA_VISIBLE_DEVICES=3,4,5,6 python3 pilot/server/dbgpt_server.py

Al mismo tiempo, puede modificar la memoria máxima utilizada por cada GPU configurando MAX_GPU_MEMORY=xxGib en el archivo .env.

No hay memoria suficiente

DB-GPT admite cuantificación de 8 bits y cuantificación de 4 bits.

Puede configurar QUANTIZE_8bit=True o QUANTIZE_4bit=True en el archivo .env

Llama-2-70b con cuantificación de 8 bits puede ejecutarse en máquinas de 80 GB de VRAM y la cuantificación de 4 bits puede ejecutarse en máquinas de 48 GB de VRAM.

2. instalación de la ventana acoplable

1. Instale la imagen de la ventana acoplable

docker pull eosphorosai/dbgpt:latest
bash docker/build_all_images.sh
docker images|grep "eosphorosai/dbgpt"

También puede especificar parámetros al compilar docker/build_all_images.sh

bash docker/build_all_images.sh \
--base-image nvidia/cuda:11.8.0-runtime-ubuntu22.04 \
--pip-index-url https://pypi.tuna.tsinghua.edu.cn/simple \
--language zh

Puede especificar el comando bash docker/build_all_images.sh --help para ver cómo usarlo

2. Ejecute el contenedor

Ejecutar con modelo local y base de datos SQLite.

docker run --gpus all -d \
    -p 5000:5000 \
    -e LOCAL_DB_TYPE=sqlite \
    -e LOCAL_DB_PATH=data/default_sqlite.db \
    -e LLM_MODEL=vicuna-13b-v1.5 \
    -e LANGUAGE=zh \
    -v /data/models:/app/models \
    --name dbgpt \
    eosphorosai/dbgpt

Abra el navegador y visite http://localhost:5000

-e LLM_MODEL=vicuna-13b-v1.5, means we use vicuna-13b-v1.5 as llm model, see /pilot/configs/model_config.LLM_MODEL_CONFIG

-v /data/models:/app/models, 指定挂载的模型文件 directory /data/models to the docker container directory /app/models, 你也可以替换成你自己的模型.

También puede ver los registros mediante el comando

docker logs dbgpt -f

Ejecutar con modelo local y base de datos MySQL.

docker run --gpus all -d -p 3306:3306 \
    -p 5000:5000 \
    -e LOCAL_DB_HOST=127.0.0.1 \
    -e LOCAL_DB_PASSWORD=aa123456 \
    -e MYSQL_ROOT_PASSWORD=aa123456 \
    -e LLM_MODEL=vicuna-13b-v1.5 \
    -e LANGUAGE=zh \
    -v /data/models:/app/models \
    --name db-gpt-allinone \
    db-gpt-allinone

Abra el navegador y visite http://localhost:5000

-e LLM_MODEL=vicuna-13b-v1.5, means we use vicuna-13b-v1.5 as llm model, see /pilot/configs/model_config.LLM_MODEL_CONFIG

-v /data/models:/app/models, 指定挂载的模型文件 directory /data/models to the docker container directory /app/models, 你也可以替换成你自己的模型.

También puede ver los registros mediante el comando

docker logs db-gpt-allinone -f

Ejecutar con interfaz openai

PROXY_API_KEY="You api key"
PROXY_SERVER_URL="https://api.openai.com/v1/chat/completions"
docker run --gpus all -d -p 3306:3306 \
    -p 5000:5000 \
    -e LOCAL_DB_HOST=127.0.0.1 \
    -e LOCAL_DB_PASSWORD=aa123456 \
    -e MYSQL_ROOT_PASSWORD=aa123456 \
    -e LLM_MODEL=proxyllm \
    -e PROXY_API_KEY=$PROXY_API_KEY \
    -e PROXY_SERVER_URL=$PROXY_SERVER_URL \
    -e LANGUAGE=zh \
    -v /data/models/text2vec-large-chinese:/app/models/text2vec-large-chinese \
    --name db-gpt-allinone \
    db-gpt-allinone
-e LLM_MODEL=proxyllm, 通过设置模型为第三方模型服务API, 可以是openai, 也可以是fastchat interface…

-v /data/models/text2vec-large-chinese:/app/models/text2vec-large-chinese, 设置知识库embedding模型为text2vec. container.”

Abra el navegador y visite http://localhost:5000

3. Implementación de AutoDL

Crear instancia

1. Seleccione la imagen AutoDL a la derecha para crear una instancia.
2. Seleccione el entorno de host y el entorno de GPU. Aquí, seleccione Xeon® Platnum8336C como tipo de CPU. Dependiendo de la situación, se recomienda GPU 4090. 3.
Insertar descripción de la imagen aquí
Inicie la computadora
Insertar descripción de la imagen aquí
4. Abra jupyterLab
Insertar descripción de la imagen aquí5. Seleccione el terminal.
Insertar descripción de la imagen aquí

Proceso de construcción de terminales

1. Instalar dependencias del entorno.

Establecer aceleración

source /etc/network_turbo
conda activate dbgpt_env

2. Preparación del modelo (chatglm2-6b-int4 ya está preparado aquí)

3. Inicie la base de datos

service mysql start

Si tiene problemas al iniciar la instancia de mysql, debe desinstalarla y reinstalarla.
Insertar descripción de la imagen aquí

#卸载
sudo apt-get autoremove --purge mysql-server
sudo apt-get remove mysql-server
sudo apt-get autoremove mysql-server
sudo apt-get remove mysql-common

sudo apt update
sudo apt install mysql-server

service mysql start

4. Inicie el servicio DBGPT

python /root/DB-GPT/pilot/server/dbgpt_server.py --port 6006

Insertar descripción de la imagen aquí
Acceda a servicios
Insertar descripción de la imagen aquíInsertar descripción de la imagen aquí
utilizando otros modelos
chatgpt
1. Solicite openai API_KEY
Insertar descripción de la imagen aquí
2. Modifique el archivo de configuración /root/DB-GPT/.env
Insertar descripción de la imagen aquí
chatglm-6b2
1. Descargue el modelo chatglm-6b2 (asegúrese de que su disco de datos sea suficiente, chatglm-6b 24G)

cd /root/autodl-tmp/models
git lfs clone https://huggingface.co/THUDM/chatglm2-6b

2. Modifique el archivo de configuración /root/DB-GPT/.env

Insertar descripción de la imagen aquí
vicunna-13b
1. Descargue el modelo vicuña-13b (asegúrese de que su disco de datos sea suficiente, vicunna-13b tiene 50G)

cd /root/autodl-tmp/models
git lfs clone https://huggingface.co/Tribbiani/vicuna-13b

2. Modifique el archivo de configuración /root/DB-GPT/.env
Insertar descripción de la imagen aquí

Supongo que te gusta

Origin blog.csdn.net/qq236237606/article/details/132652446
Recomendado
Clasificación