LLM-20230225:LLaMA(大羊驼)【参数量: 70 亿、130 亿、330 亿、650 亿】【旨在推动 LLM 领域的小型化、平民化研究】【Meta】

Meta AI 同时在其官方发布了论文《LLaMA: Open and Efficient Foundation Language Models》

官方代码地址:

猜你喜欢

转载自blog.csdn.net/u013250861/article/details/129422024
今日推荐