Instalación de difusión estable de pintura AI, descarga del paquete de integración del tutorial

Instale la webui de difusión estable

 Representaciones:

1. Preparativos

Antes de descargar AIla herramienta de pintura , debe descargar algunos entornos en ejecución en la computadora con anticipación

1. Descarga python, git

En primer lugar, la máquina local es preferiblemente la tarjeta N de Nvidia y necesita al menos 4GBmemoria de video para ejecutarse localmente. Por supuesto, también se puede jugar con la tarjeta A, porque el dibujo tiene altos requisitos en la tarjeta gráfica. De lo contrario, incluso si la instalación es exitosa, la imagen resultante puede ser completamente negra o no se puede dibujar en absoluto.

Al instalar, debe activar Magic Internet; de lo contrario, no puede descargar algunas dependencias necesarias para pintar

Además, se requiere un pythonentorno , y se requiere descargar la Python 3.10.6 versión oficial

Entre pythonellos la dirección de descarga: https://www.python.org/downloads/

Además, se requiere instalación Git, dirección de descarga: https://git-scm.com/downloads/

pythonUna vez completada la instalación, ejecutamos el siguiente comando para pipactualizar a la última

python -m pip install --upgrade pip

2. Descargue la webui de difusión estable

El primero usa Gitel comando :

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

El segundo es descargar directamente el archivo del paquete comprimido, como se muestra en la siguiente figura:

3. Ejecutar inicio

Después de descargar al local, si eres windowsel sistema , haz doble clic directamente en la carpetawebui-user.bat

Si eres MACOSo Linuxsistema, ejecuta el comando./webui.sh

Tomará mucho tiempo descargar varias dependencias cuando se inicia por primera vez, y la última versión ha agregado un modelo 4GBcasi predeterminado v1-5-pruned-emaonly.safetensors, que también debe descargarse, así que solo espere pacientemente.

Si desea acelerar la velocidad de descarga, puede descargar el modelo por adelantado, colocarlo en models/Stable-diffusionla carpeta y luego iniciarlo nuevamente webui-user.bat, para que no vuelva a descargar el modelo.

La dirección de descarga oficial predeterminada del modelo: https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main

Si cree que la descarga predeterminada oficial es lenta, también publiqué la dirección de descarga del modelo predeterminado de Baidu Cloud en el área de comentarios, elija usted mismo

Si el proceso de instalación va bien, ábralo directamente en el navegadorhttp://127.0.0.1:7860

Una visita exitosa significa que la instalación fue exitosa, y la página abierta es más o menos como sigue

 

2. Descarga el complemento y localízalo.

instalación china

Forma 1: instalar desde disponible

Haga clic Extensionsen el botón , luego haga clic en Availableel botón de extensiones disponibles, y finalmente haga clic Load fromen el botón , podrá recuperar todas las extensiones disponibles del enlace de índice para su propia descarga

Cuando se carga la lista de extensiones, buscamos el complemento de localización Bilingual Localizationde idiomas y hacemos clic para installdescargarlo.

 Forma 2: instalar desde el sitio web 

Haga clic primero Extensions, luego haga clic en el tercer botón a continuaciónInstall from URL

Debe completar manualmente la dirección del enlace chino para la instalación. Aquí podemos githubelegir el enlace o ir giteeal enlace anterior en China.

El almacén de código abierto del complemento Sinicization es sd-webui-bilingual-localizationO stable-diffusion-webui-chinese, búsquelo, luego pegue el enlace y Installhaga clic en

https://github.com/VinsonLaro/stable-diffusion-webui-chinese.git

 Forma 3: instalar desde el sitio web 

  • Encontramos directamente stable-diffusion-webui/extensionsel directorio de extensiones , luego abrimos una ventana de línea de comando y ejecutamos el siguiente comando en ese directorio

git clone 仓库地址

Habilitar sinización

Método 1: haga clic en Settingel botón , luego haga clic Bilingual Localizationen la columna de la izquierda y Localization file seleccione el idioma en el cuadro desplegable

Método 2: haga clic en Settingel botón , luego haga clic User interfaceen la barra de la izquierda y desplácese hacia abajo hasta la parte inferior para ver la ventana de apertura Localizationgdel

Después de elegir, debemos hacer clic Apply settingpara guardar la configuración y luego hacer clic para Reload UIvolver a cargar la interfaz para jugar felizmente

Sinización bilingüe

  • Enlace de almacén chino bilingüe: https://github.com/journey-ad/sd-webui-bilingual-localization.git

  • La sinicización simple anterior es solo que la interfaz está completamente convertida a chino. Si desea mostrar tanto chino como inglés, debe usar un complemento bilingüe

  • También es a través de cualquiera de los tres métodos anteriores para descargar el complemento chino, debe habilitarlo para ver el efecto

  • En este momento, Settingdebemos configurar User interfacedebajo de la columna en el lado izquierdo Localizationgde None, y Bilingual Localizationluego Localization file seleccionar el idioma en el cuadro desplegable de la columna, y UIluego reiniciar

Usar

Representaciones:

Parámetros de la interfaz

Antes de Stable Diffusionusar AIla pintura de código abierto, debe comprender la interfaz de pintura y el significado de algunos parámetros

En la actualidad, el efecto de la pintura AI en las palabras clave en chino no es bueno, intente usar palabras clave en inglés

Los parámetros más importantes son los siguientes:

Aviso: palabras de aviso positivas, es decir tag, cuantas más palabras de aviso, AImás preciso será el resultado del dibujo.

Indicador negativo: indicador inverso, es decir, inversotag

Ancho/Alto : El tamaño de la imagen a generar. Cuanto mayor sea el tamaño, mayor será el rendimiento y el tiempo que se necesita.

Escala CFG: el grado deAI preferencia por los parámetros de descripción . PromptCuanto menor sea el valor, más se desvía la imagen generada de su descripción, pero cuanto más lógica sea; cuanto mayor sea el valor, más consistente será la imagen generada con su descripción, pero puede que no sea lógica.

Método de muestreo: Método de muestreo. Hay muchos tipos, pero solo hay diferencias en el algoritmo de muestreo, no hay bueno o malo, solo elija el que más le convenga.

Pasos de muestreo: Tamaño del paso de muestreo. Si es demasiado pequeño, la aleatoriedad del muestreo será muy alta, si es demasiado grande, la eficiencia del muestreo será muy baja y la probabilidad de rechazo será alta.

Semilla: semilla de número aleatorio. Una semilla aleatoria al generar cada imagen, esta semilla se utiliza como base para determinar el estado inicial de la difusión. Si no entiendes, solo usa random

Restaurar caras: reparar caras, optimizar la cara, el principio es llamar a un modelo de red neuronal para reparar la cara y afectar la cara. Repare la cara del personaje de la imagen, pero si la reparación de la cara está activada para un personaje no realista, la cara puede colapsar

Mosaico: la textura perfecta es una tecnología de optimización anticuada, es decir, la optimización de multiplicación de matriz CUDAde , que afecta la velocidad de dibujo y reduce el consumo de memoria de video, pero después de seleccionarla, es posible que ni siquiera aparezca la imagen normal. no puede vencer

Highres.fix: Corrección de alta resolución, por defecto, los diagramas de Vincent producen imágenes muy caóticas en altas resoluciones. Si usa la restauración de alta definición, primero generará una imagen de acuerdo con el tamaño especificado y luego expandirá la resolución de la imagen a través del algoritmo de ampliación para lograr el efecto de imagen grande de alta definición.

Dechado

Euler a: Es una ilustración, tagla tasa de utilización es superada solo por DPM2y DPM2 a, el efecto de luz ambiental es bueno y la composición a veces es rara.

Euler: suave, también adecuado para ilustraciones, buen detalle y renderizado del entorno, desenfoque de fondo profundo

Heun: La relación de calidad promedio de un solo Eulerdesenterrado Euler aes más alta que y, pero la velocidad es la más lenta y el alto steprendimiento es bueno.

DDIM: adecuado para imágenes anchas, baja velocidad, alto steprendimiento es bueno, tagsi el negativo no es suficiente, puede reproducirse de manera casual, el efecto de la luz ambiental y el vapor de agua es bueno y el realismo no es bueno

DPM2: Este método de muestreo tagtiene la tasa de utilización 80%más alta de

DPM2 a: Casi lo DPM2mismo que , pero puede haber primeros planos cuando los personajes están

PLMS: La calidad de un solo dibujo solo es superada porHeun

LMS: la textura OA, la saturación y el contraste son bajos, más estilo de animación

LMS Karras: cambiará mucho a un estilo optimizado, y el realismo no es bueno

DPM rápido: esta es una herramienta de prueba dejada por los desarrolladores del mundo superior, no apta para magos

Diagrama de Vincent (txt2img)

Imagen de Vincent (text2img): genera las imágenes correspondientes de acuerdo con la descripción Promptde

Seleccione 绘画模型(Stable Diffusion checkpoint)文生图(txt2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)点击生成(Generate)

De acuerdo con los pasos anteriores, la imagen se puede generar a través del texto. Generalmente, solo Promptnecesitamos , Negative promptque generalmente es fijo, y limitar la marca de agua, la baja calidad y otros posibles errores lógicos.

Imagen generada por imagen (img2img)

Imagen generada por imagen (img2img): genere otra imagen nueva a partir de una imagen basada en las características Promptdescritas

Seleccione 绘画模型(Stable Diffusion checkpoint)图生图(img2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)点击生成(Generate)

Sube una imagen a Tushengtu y pruébala. Aquí usamos la foto de Wenshengtu en este momento. De acuerdo con los pasos anteriores, haz clic en Generar para ver el efecto.

Se puede ver que AIla imagen generada por la imagen en realidad se basa en la imagen que cargó y la suya para Promptgenerar una foto similar a la que cargó.

peso de la etiqueta

Al ingresar Promptetiquetas , a veces escribirá lo que piense, y el peso escrito en el frente será el más alto por defecto

stable DiffusionTambién puede aumentar el peso de las palabras clave a través de símbolos específicos en

donde ()es fortalecer el peso, []es reducir el peso, es{} la "implementación" de para incrustarNAI()<>

Por ejemplo: (eye) > [eye], (eye:1.4)agregará aproximadamente más de lo normal 40%, (eye:0.6)disminuirá aprox.40 %

Descarga del modelo

Recomendación de sitio web modelo: https://civitai.com/

El cuadro desplegable en la esquina superior izquierda se puede usar para seleccionar el modelo, donde v1-5-pruned-emaonly.safetensorsestá el modelo predeterminado

La imagen dibujada por el modelo predeterminado es fea, por lo que necesitamos descargar un modelo mejor y más adecuado para dibujar

Cada modelo se centra en diferentes estilos de pintura. Algunos son adecuados para dibujar personas, algunos son adecuados para dibujar animaciones y otros son adecuados para dibujar paisajes. Elija el modelo que se adapte a su propio estilo de pintura y descárguelo según sus necesidades.

Descargue el modelo, coloque el archivo del modelo en models/Stable-diffusionla carpeta , vuelva a cargar UIy podrá ver

La diferencia general entre los modelos.

nombre necesidad Efecto Observación
difusión estable (modelo emaonly de 4 GB) Memoria de video de 2 GB para comenzar La velocidad de dibujo es de 10 s y la salida única máxima es de 920 × 920 adecuado para dibujar
difusión estable (modelo ema completo de 7 GB) Memoria de video de 4 GB para comenzar Con el peso del último entrenamiento, así cuesta memoria de vídeo adecuado para el entrenamiento
waifu (modelo Float 16 EMA) Inicio de memoria de video de 2GB El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior adecuado para dibujar
waifu (modelo Float 32 EMA) Inicio de memoria de video de 2GB El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior Adecuado para dibujar, la calidad de la imagen en realidad no es muy diferente de 16
waifu (Flotador 32 modelo completo) Comienza la memoria de video de 4GB El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior Adecuado para dibujar o entrenar.
waifu (modelo Float 32 Full + Optimizer) Inicio de memoria de video de 8GB El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior adecuado para el entrenamiento
Naifu (modelo recortado de 4 GB) Mínimo 8 GB de VRAM y 8 GB de VRAM más cerca del oficial adecuado para dibujar
Naifu (último modelo de 7GB) Memoria de video mínima de 8 GB (flotante de 10 GB en adelante) más cerca del oficial Adecuado para dibujar o entrenar.
  • Tenga en cuenta que la memoria de video aquí se refiere al tamaño de 512 X 512. Según la configuración predeterminada, la memoria de video que el software debe ocupar al generar una imagen. Se inicia la memoria de video de 2 GB, lo que significa que la memoria de video real de la tarjeta gráfica de su computadora debe ser de al menos 3 GB (porque el escritorio del sistema y la pantalla del navegador también necesitan ocupar parte de la memoria de video)
  • Al agregar varios parámetros de "optimización", puede cambiar por una reducción en el uso de la memoria de video a través de una disminución parcial en el rendimiento.
  • Descripción del nombre del modelo Nafu 1: animefull-final-pruned = full-latest = modelo completo NAI (incluido NSFW)
  • Descripción del nombre del modelo Nafu 2: animesfw-latest = modelo de referencia NAI

Referencias:

Stable DiffusionDirección de fuente abierta: GitHub - AUTOMATIC1111/stable-diffusion-webui: interfaz de usuario web de Stable Diffusion

Uso de la última versión de la herramienta de pintura AI de fuente abierta Stable Diffusion

Generador de etiquetas AI  Geek Feitu Generador de etiquetas AI

Supongo que te gusta

Origin blog.csdn.net/m0_61634551/article/details/130790268
Recomendado
Clasificación