Huggingface da configuração do método do servidor proxy de download pré-treinado

O autor precisa baixar o modelo de pré-treinamento, mas as imagens espelhadas de TUNA e BSFU pararam neste momento. Espero que haja uma maneira disponível de baixar o modelo de pré-treinamento na Internet.
Nessa época, encontrei o documento Configuração do huggingface

De acordo com a documentação, os proxies de parâmetro (Dict, opcional)

  • Um dicionário de servidores proxy para usar por protocolo ou terminal, por exemplo:

{'http': 'foo.bar:3128', ' http://hostname ': 'foo.bar:4012'}.

Os proxies são usados ​​em cada solicitação.

Você pode fazer proxy de tráfego http(s)

proxies={'http': 'http://127.0.0.1:8118', 'https': 'http://127.0.0.1:8118'}

BertTokenizerFast.from_pretrained("bert-base-uncased", proxies=proxies)
 

Existe uma solução semelhante no StackOverflow Como especificar um proxy no pipeline dos transformadores

 Se não funcionar, amplie:

-------------------------------------------------- ------------

Falhei no método a seguir, a versão do resultado (TF ou PT) baixada tão facilmente não correspondeu, falhou! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

  cd 到 ~/.cache/huggingface/diffusers/models--runwayml--stable-diffusion-v1-5/snapshots/39593d5650112b4cc580433f6b0435385882d819/unet

 aria2c   https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/unet/diffusion_pytorch_model.safetensors  --max-connection-per-server=4 --min-split-size=1M  --all-proxy='http://127.0.0.1:8118'

Acho que você gosta

Origin blog.csdn.net/u010087338/article/details/128666892
Recomendado
Clasificación