El autor necesita descargar el modelo de preentrenamiento, pero en este momento se ha detenido la duplicación de TUNA y BSFU, y espero que haya una forma disponible de descargar el modelo de preentrenamiento en Internet.
En este momento encontré el documento Configuración de huggingface
Según la documentación, los proxies de parámetros (Dict, opcional)
- Un diccionario de servidores proxy para usar por protocolo o punto final, por ejemplo:
{'http': 'foo.bar:3128', ' http://nombre de host ': 'foo.bar:4012'}.
Los proxies se utilizan en cada solicitud.
Puede representar el tráfico de http(s)
proxies={'http': 'http://127.0.0.1:8118', 'https': 'http://127.0.0.1:8118'}
BertTokenizerFast.from_pretrained("bert-base-uncased", proxies=proxies)
Hay una solución similar en StackOverflow Cómo especificar un proxy en la canalización de transformadores
Si no funciona, haz zoom:
-------------------------------------------------- ------------
Fallé en el siguiente método, la versión del resultado (TF o PT) descargada tan fácilmente no coincidió, ¡falló! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !
cd 到 ~/.cache/huggingface/diffusers/models--runwayml--stable-diffusion-v1-5/snapshots/39593d5650112b4cc580433f6b0435385882d819/unet
aria2c https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/unet/diffusion_pytorch_model.safetensors --max-connection-per-server=4 --min-split-size=1M --all-proxy='http://127.0.0.1:8118'