Instale la webui de difusión estable
Representaciones:
1. Preparativos
Antes de descargar AI
la herramienta de pintura , debe descargar algunos entornos en ejecución en la computadora con anticipación
1. Descarga python, git
En primer lugar, la máquina local es preferiblemente la tarjeta N de Nvidia y necesita al menos 4GB
memoria de video para ejecutarse localmente. Por supuesto, también se puede jugar con la tarjeta A, porque el dibujo tiene altos requisitos en la tarjeta gráfica. De lo contrario, incluso si la instalación es exitosa, la imagen resultante puede ser completamente negra o no se puede dibujar en absoluto.
Al instalar, debe activar Magic Internet; de lo contrario, no puede descargar algunas dependencias necesarias para pintar
Además, se requiere un python
entorno , y se requiere descargar la Python 3.10.6
versión oficial
Entre python
ellos la dirección de descarga: https://www.python.org/downloads/
Además, se requiere instalación Git
, dirección de descarga: https://git-scm.com/downloads/
python
Una vez completada la instalación, ejecutamos el siguiente comando para pip
actualizar a la última
python -m pip install --upgrade pip
2. Descargue la webui de difusión estable
El primero usa Git
el comando :
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
El segundo es descargar directamente el archivo del paquete comprimido, como se muestra en la siguiente figura:
3. Ejecutar inicio
Después de descargar al local, si eres windows
el sistema , haz doble clic directamente en la carpetawebui-user.bat
Si eres MACOS
o Linux
sistema, ejecuta el comando./webui.sh
Tomará mucho tiempo descargar varias dependencias cuando se inicia por primera vez, y la última versión ha agregado un modelo 4GB
casi predeterminado v1-5-pruned-emaonly.safetensors
, que también debe descargarse, así que solo espere pacientemente.
Si desea acelerar la velocidad de descarga, puede descargar el modelo por adelantado, colocarlo en models/Stable-diffusion
la carpeta y luego iniciarlo nuevamente webui-user.bat
, para que no vuelva a descargar el modelo.
La dirección de descarga oficial predeterminada del modelo: https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main
Si cree que la descarga predeterminada oficial es lenta, también publiqué la dirección de descarga del modelo predeterminado de Baidu Cloud en el área de comentarios, elija usted mismo
Si el proceso de instalación va bien, ábralo directamente en el navegadorhttp://127.0.0.1:7860
Una visita exitosa significa que la instalación fue exitosa, y la página abierta es más o menos como sigue
2. Descarga el complemento y localízalo.
instalación china
Forma 1: instalar desde disponible
Haga clic Extensions
en el botón , luego haga clic en Available
el botón de extensiones disponibles, y finalmente haga clic Load from
en el botón , podrá recuperar todas las extensiones disponibles del enlace de índice para su propia descarga
Cuando se carga la lista de extensiones, buscamos el complemento de localización Bilingual Localization
de idiomas y hacemos clic para install
descargarlo.
Forma 2: instalar desde el sitio web
Haga clic primero Extensions
, luego haga clic en el tercer botón a continuaciónInstall from URL
Debe completar manualmente la dirección del enlace chino para la instalación. Aquí podemos github
elegir el enlace o ir gitee
al enlace anterior en China.
El almacén de código abierto del complemento Sinicization es sd-webui-bilingual-localization
O stable-diffusion-webui-chinese
, búsquelo, luego pegue el enlace y Install
haga clic en
https://github.com/VinsonLaro/stable-diffusion-webui-chinese.git
Forma 3: instalar desde el sitio web
-
Encontramos directamente
stable-diffusion-webui/extensions
el directorio de extensiones , luego abrimos una ventana de línea de comando y ejecutamos el siguiente comando en ese directorio
git clone 仓库地址
Habilitar sinización
Método 1: haga clic en Setting
el botón , luego haga clic Bilingual Localization
en la columna de la izquierda y Localization file
seleccione el idioma en el cuadro desplegable
Método 2: haga clic en Setting
el botón , luego haga clic User interface
en la barra de la izquierda y desplácese hacia abajo hasta la parte inferior para ver la ventana de apertura Localizationg
del
Después de elegir, debemos hacer clic Apply setting
para guardar la configuración y luego hacer clic para Reload UI
volver a cargar la interfaz para jugar felizmente
Sinización bilingüe
-
Enlace de almacén chino bilingüe: https://github.com/journey-ad/sd-webui-bilingual-localization.git
-
La sinicización simple anterior es solo que la interfaz está completamente convertida a chino. Si desea mostrar tanto chino como inglés, debe usar un complemento bilingüe
-
También es a través de cualquiera de los tres métodos anteriores para descargar el complemento chino, debe habilitarlo para ver el efecto
-
En este momento,
Setting
debemos configurarUser interface
debajo de la columna en el lado izquierdoLocalizationg
deNone
, yBilingual Localization
luegoLocalization file
seleccionar el idioma en el cuadro desplegable de la columna, yUI
luego reiniciar
Usar
Representaciones:
Parámetros de la interfaz
Antes de Stable Diffusion
usar AI
la pintura de código abierto, debe comprender la interfaz de pintura y el significado de algunos parámetros
En la actualidad, el efecto de la pintura AI en las palabras clave en chino no es bueno, intente usar palabras clave en inglés
Los parámetros más importantes son los siguientes:
Aviso: palabras de aviso positivas, es decir tag
, cuantas más palabras de aviso, AI
más preciso será el resultado del dibujo.
Indicador negativo: indicador inverso, es decir, inversotag
Ancho/Alto : El tamaño de la imagen a generar. Cuanto mayor sea el tamaño, mayor será el rendimiento y el tiempo que se necesita.
Escala CFG: el grado deAI
preferencia por los parámetros de descripción . Prompt
Cuanto menor sea el valor, más se desvía la imagen generada de su descripción, pero cuanto más lógica sea; cuanto mayor sea el valor, más consistente será la imagen generada con su descripción, pero puede que no sea lógica.
Método de muestreo: Método de muestreo. Hay muchos tipos, pero solo hay diferencias en el algoritmo de muestreo, no hay bueno o malo, solo elija el que más le convenga.
Pasos de muestreo: Tamaño del paso de muestreo. Si es demasiado pequeño, la aleatoriedad del muestreo será muy alta, si es demasiado grande, la eficiencia del muestreo será muy baja y la probabilidad de rechazo será alta.
Semilla: semilla de número aleatorio. Una semilla aleatoria al generar cada imagen, esta semilla se utiliza como base para determinar el estado inicial de la difusión. Si no entiendes, solo usa random
Restaurar caras: reparar caras, optimizar la cara, el principio es llamar a un modelo de red neuronal para reparar la cara y afectar la cara. Repare la cara del personaje de la imagen, pero si la reparación de la cara está activada para un personaje no realista, la cara puede colapsar
Mosaico: la textura perfecta es una tecnología de optimización anticuada, es decir, la optimización de multiplicación de matriz CUDA
de , que afecta la velocidad de dibujo y reduce el consumo de memoria de video, pero después de seleccionarla, es posible que ni siquiera aparezca la imagen normal. no puede vencer
Highres.fix: Corrección de alta resolución, por defecto, los diagramas de Vincent producen imágenes muy caóticas en altas resoluciones. Si usa la restauración de alta definición, primero generará una imagen de acuerdo con el tamaño especificado y luego expandirá la resolución de la imagen a través del algoritmo de ampliación para lograr el efecto de imagen grande de alta definición.
Dechado
Euler a: Es una ilustración, tag
la tasa de utilización es superada solo por DPM2
y DPM2 a
, el efecto de luz ambiental es bueno y la composición a veces es rara.
Euler: suave, también adecuado para ilustraciones, buen detalle y renderizado del entorno, desenfoque de fondo profundo
Heun: La relación de calidad promedio de un solo Euler
desenterrado Euler a
es más alta que y, pero la velocidad es la más lenta y el alto step
rendimiento es bueno.
DDIM: adecuado para imágenes anchas, baja velocidad, alto step
rendimiento es bueno, tag
si el negativo no es suficiente, puede reproducirse de manera casual, el efecto de la luz ambiental y el vapor de agua es bueno y el realismo no es bueno
DPM2: Este método de muestreo tag
tiene la tasa de utilización 80%
más alta de
DPM2 a: Casi lo DPM2
mismo que , pero puede haber primeros planos cuando los personajes están
PLMS: La calidad de un solo dibujo solo es superada porHeun
LMS: la textura OA
, la saturación y el contraste son bajos, más estilo de animación
LMS Karras: cambiará mucho a un estilo optimizado, y el realismo no es bueno
DPM rápido: esta es una herramienta de prueba dejada por los desarrolladores del mundo superior, no apta para magos
Diagrama de Vincent (txt2img)
Imagen de Vincent (text2img): genera las imágenes correspondientes de acuerdo con la descripción Prompt
de
Seleccione 绘画模型(Stable Diffusion checkpoint)
► 文生图(txt2img)
► 填写正向提示词(Prompt)
► 填写反向提示词(Negative prompt)
► 选择采样器(一般选择DPM++ 2M Karras)
► 设置采样步骤(一般设置30)
► 设置长宽(Width / Height,推荐 1024 * 1536)
►点击生成(Generate)
De acuerdo con los pasos anteriores, la imagen se puede generar a través del texto. Generalmente, solo Prompt
necesitamos , Negative prompt
que generalmente es fijo, y limitar la marca de agua, la baja calidad y otros posibles errores lógicos.
Imagen generada por imagen (img2img)
Imagen generada por imagen (img2img): genere otra imagen nueva a partir de una imagen basada en las características Prompt
descritas
Seleccione 绘画模型(Stable Diffusion checkpoint)
► 图生图(img2img)
► 填写正向提示词(Prompt)
► 填写反向提示词(Negative prompt)
► 选择采样器(一般选择DPM++ 2M Karras)
► 设置采样步骤(一般设置30)
► 设置长宽(Width / Height,推荐 1024 * 1536)
►点击生成(Generate)
Sube una imagen a Tushengtu y pruébala. Aquí usamos la foto de Wenshengtu en este momento. De acuerdo con los pasos anteriores, haz clic en Generar para ver el efecto.
Se puede ver que AI
la imagen generada por la imagen en realidad se basa en la imagen que cargó y la suya para Prompt
generar una foto similar a la que cargó.
peso de la etiqueta
Al ingresar Prompt
etiquetas , a veces escribirá lo que piense, y el peso escrito en el frente será el más alto por defecto
stable Diffusion
También puede aumentar el peso de las palabras clave a través de símbolos específicos en
donde ()
es fortalecer el peso, []
es reducir el peso, es{}
la "implementación" de para incrustarNAI
()
<>
Por ejemplo: (eye) > [eye]
, (eye:1.4)
agregará aproximadamente más de lo normal 40%
, (eye:0.6)
disminuirá aprox.40 %
Descarga del modelo
Recomendación de sitio web modelo: https://civitai.com/
El cuadro desplegable en la esquina superior izquierda se puede usar para seleccionar el modelo, donde v1-5-pruned-emaonly.safetensors
está el modelo predeterminado
La imagen dibujada por el modelo predeterminado es fea, por lo que necesitamos descargar un modelo mejor y más adecuado para dibujar
Cada modelo se centra en diferentes estilos de pintura. Algunos son adecuados para dibujar personas, algunos son adecuados para dibujar animaciones y otros son adecuados para dibujar paisajes. Elija el modelo que se adapte a su propio estilo de pintura y descárguelo según sus necesidades.
Descargue el modelo, coloque el archivo del modelo en models/Stable-diffusion
la carpeta , vuelva a cargar UI
y podrá ver
La diferencia general entre los modelos.
nombre | necesidad | Efecto | Observación |
---|---|---|---|
difusión estable (modelo emaonly de 4 GB) | Memoria de video de 2 GB para comenzar | La velocidad de dibujo es de 10 s y la salida única máxima es de 920 × 920 | adecuado para dibujar |
difusión estable (modelo ema completo de 7 GB) | Memoria de video de 4 GB para comenzar | Con el peso del último entrenamiento, así cuesta memoria de vídeo | adecuado para el entrenamiento |
waifu (modelo Float 16 EMA) | Inicio de memoria de video de 2GB | El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior | adecuado para dibujar |
waifu (modelo Float 32 EMA) | Inicio de memoria de video de 2GB | El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior | Adecuado para dibujar, la calidad de la imagen en realidad no es muy diferente de 16 |
waifu (Flotador 32 modelo completo) | Comienza la memoria de video de 4GB | El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior | Adecuado para dibujar o entrenar. |
waifu (modelo Float 32 Full + Optimizer) | Inicio de memoria de video de 8GB | El rendimiento es casi estable, pero el uso de la memoria de video es ligeramente superior | adecuado para el entrenamiento |
Naifu (modelo recortado de 4 GB) | Mínimo 8 GB de VRAM y 8 GB de VRAM | más cerca del oficial | adecuado para dibujar |
Naifu (último modelo de 7GB) | Memoria de video mínima de 8 GB (flotante de 10 GB en adelante) | más cerca del oficial | Adecuado para dibujar o entrenar. |
- Tenga en cuenta que la memoria de video aquí se refiere al tamaño de 512 X 512. Según la configuración predeterminada, la memoria de video que el software debe ocupar al generar una imagen. Se inicia la memoria de video de 2 GB, lo que significa que la memoria de video real de la tarjeta gráfica de su computadora debe ser de al menos 3 GB (porque el escritorio del sistema y la pantalla del navegador también necesitan ocupar parte de la memoria de video)
- Al agregar varios parámetros de "optimización", puede cambiar por una reducción en el uso de la memoria de video a través de una disminución parcial en el rendimiento.
- Descripción del nombre del modelo Nafu 1: animefull-final-pruned = full-latest = modelo completo NAI (incluido NSFW)
- Descripción del nombre del modelo Nafu 2: animesfw-latest = modelo de referencia NAI
Referencias:
Stable Diffusion
Dirección de fuente abierta: GitHub - AUTOMATIC1111/stable-diffusion-webui: interfaz de usuario web de Stable Diffusion
Uso de la última versión de la herramienta de pintura AI de fuente abierta Stable Diffusion
Generador de etiquetas AI Geek Feitu Generador de etiquetas AI