オープンソース化された中国製大型モデルの比較、アップデート対応

大規模モデルのダウンロード: Interlink Hi-Tech

メイン (huggingface.co) の ClueAI/PromptCLUE-base-v1-5 は、マルチタスク生成をサポート、中国語をサポート、複数ラウンドの対話をサポートしません、エクスペリエンス: ClueAI (cluebenchmarks.com)

Promptclue-base に基づいてさらにトレーニングされたモデル:メイン (huggingface.co) の ClueAI/ChatYuan-large-v1 は、マルチタスク生成をサポートし、中国語をサポートし、簡単な対話をサポートします。

ハグフェイスモデルのダウンロードについて:

マニュアルのダウンロード: https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/

コードのダウンロード:


import llama
#MODEL = '/home/guo/llama_test/llama_model'
MODEL = 'decapoda-research/llama-7b-hf'
# MODEL = 'decapoda-research/llama-13b-hf'
# MODEL = 'decapoda-research/llama-30b-hf'
# MODEL = 'decapoda-research/llama-65b-hf'

#tokenizer = llama.LLaMATokenizer.from_pretrained(MODEL,mirror='tuna')
#model = llama.LLaMAForCausalLM.from_pretrained(MODEL, mirror='tuna',low_cpu_mem_usage = True)
tokenizer = llama.LLaMATokenizer.from_pretrained(MODEL,mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')
model = llama.LLaMAForCausalLM.from_pretrained(MODEL, mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models',low_cpu_mem_usage = True)
model.to('cpu')
batch = tokenizer("Yo mama", return_tensors = "pt")
print(tokenizer.decode(model.generate(batch["input_ids"], max_length=100)[0]))

github のミラー ウェアハウスのダウンロードについては、(4 件のメッセージ) git clone ソース変更/GitHub 国内ミラー_git 変更ソース_Mianli Duojiatang blog-CSDN blog を参照してください。


https://gitclone.com
# 服务器位于杭州(可用)
使用方式:原始git地址:https://github.com/junegunn/vim-plug
克隆地址: https://gitclone.com/github.com/junegunn/vim-plug
#香港服务器https://doc.fastgit.org ,当前不可用

メッセージを残してください

おすすめ

転載: blog.csdn.net/sslfk/article/details/129416787