O autor precisa baixar o modelo de pré-treinamento, mas as imagens espelhadas de TUNA e BSFU pararam neste momento. Espero que haja uma maneira disponível de baixar o modelo de pré-treinamento na Internet.
Nessa época, encontrei o documento Configuração do huggingface
De acordo com a documentação, os proxies de parâmetro (Dict, opcional)
- Um dicionário de servidores proxy para usar por protocolo ou terminal, por exemplo:
{'http': 'foo.bar:3128', ' http://hostname ': 'foo.bar:4012'}.
Os proxies são usados em cada solicitação.
Você pode fazer proxy de tráfego http(s)
proxies={'http': 'http://127.0.0.1:8118', 'https': 'http://127.0.0.1:8118'}
BertTokenizerFast.from_pretrained("bert-base-uncased", proxies=proxies)
Existe uma solução semelhante no StackOverflow Como especificar um proxy no pipeline dos transformadores
Se não funcionar, amplie:
-------------------------------------------------- ------------
Falhei no método a seguir, a versão do resultado (TF ou PT) baixada tão facilmente não correspondeu, falhou! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !
cd 到 ~/.cache/huggingface/diffusers/models--runwayml--stable-diffusion-v1-5/snapshots/39593d5650112b4cc580433f6b0435385882d819/unet
aria2c https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/unet/diffusion_pytorch_model.safetensors --max-connection-per-server=4 --min-split-size=1M --all-proxy='http://127.0.0.1:8118'