大規模モデルのダウンロード: Interlink Hi-Tech
メイン (huggingface.co) の ClueAI/PromptCLUE-base-v1-5 は、マルチタスク生成をサポート、中国語をサポート、複数ラウンドの対話をサポートしません、エクスペリエンス: ClueAI (cluebenchmarks.com)
Promptclue-base に基づいてさらにトレーニングされたモデル:メイン (huggingface.co) の ClueAI/ChatYuan-large-v1 は、マルチタスク生成をサポートし、中国語をサポートし、簡単な対話をサポートします。
ハグフェイスモデルのダウンロードについて:
マニュアルのダウンロード: https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/
コードのダウンロード:
import llama
#MODEL = '/home/guo/llama_test/llama_model'
MODEL = 'decapoda-research/llama-7b-hf'
# MODEL = 'decapoda-research/llama-13b-hf'
# MODEL = 'decapoda-research/llama-30b-hf'
# MODEL = 'decapoda-research/llama-65b-hf'
#tokenizer = llama.LLaMATokenizer.from_pretrained(MODEL,mirror='tuna')
#model = llama.LLaMAForCausalLM.from_pretrained(MODEL, mirror='tuna',low_cpu_mem_usage = True)
tokenizer = llama.LLaMATokenizer.from_pretrained(MODEL,mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')
model = llama.LLaMAForCausalLM.from_pretrained(MODEL, mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models',low_cpu_mem_usage = True)
model.to('cpu')
batch = tokenizer("Yo mama", return_tensors = "pt")
print(tokenizer.decode(model.generate(batch["input_ids"], max_length=100)[0]))
github のミラー ウェアハウスのダウンロードについては、(4 件のメッセージ) git clone ソース変更/GitHub 国内ミラー_git 変更ソース_Mianli Duojiatang blog-CSDN blog を参照してください。
https://gitclone.com
# 服务器位于杭州(可用)
使用方式:原始git地址:https://github.com/junegunn/vim-plug
克隆地址: https://gitclone.com/github.com/junegunn/vim-plug
#香港服务器https://doc.fastgit.org ,当前不可用
メッセージを残してください