Huggingface's de la configuración del método del servidor proxy de descarga preentrenada

El autor necesita descargar el modelo de preentrenamiento, pero en este momento se ha detenido la duplicación de TUNA y BSFU, y espero que haya una forma disponible de descargar el modelo de preentrenamiento en Internet.
En este momento encontré el documento Configuración de huggingface

Según la documentación, los proxies de parámetros (Dict, opcional)

  • Un diccionario de servidores proxy para usar por protocolo o punto final, por ejemplo:

{'http': 'foo.bar:3128', ' http://nombre de host ': 'foo.bar:4012'}.

Los proxies se utilizan en cada solicitud.

Puede representar el tráfico de http(s)

proxies={'http': 'http://127.0.0.1:8118', 'https': 'http://127.0.0.1:8118'}

BertTokenizerFast.from_pretrained("bert-base-uncased", proxies=proxies)
 

Hay una solución similar en StackOverflow Cómo especificar un proxy en la canalización de transformadores

 Si no funciona, haz zoom:

-------------------------------------------------- ------------

Fallé en el siguiente método, la versión del resultado (TF o PT) descargada tan fácilmente no coincidió, ¡falló! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

  cd 到 ~/.cache/huggingface/diffusers/models--runwayml--stable-diffusion-v1-5/snapshots/39593d5650112b4cc580433f6b0435385882d819/unet

 aria2c   https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/unet/diffusion_pytorch_model.safetensors  --max-connection-per-server=4 --min-split-size=1M  --all-proxy='http://127.0.0.1:8118'

Supongo que te gusta

Origin blog.csdn.net/u010087338/article/details/128666892
Recomendado
Clasificación