人手一个chatGPT,很快就会实现了,期待

2022年11月30日,OpenAI发布了一款名为ChatGPT的对话模型,引起了全球人工智能领域的轰动。虽然ChatGPT在各方面都表现出了惊人的效果,但其高昂的训练成本和需要的训练数据等都给想要进入该领域的人设置了层层关卡。比如,ChatGPT的训练需要微软专门建设的AI计算系统,总算力消耗约为3640 PF-days。在推理阶段,ChatGPT需要约3万多块英伟达A100 GPU的芯片,这样的话,初始投入成本约为8亿美元,每天光是花费的电费就要5万美元。即使是像微软这样的科技巨头也因为算力不足而被迫暂停了一些其他项目。因此,对于大多数人来说,进入该领域变得更加困难。

由于从头开始训练的成本较高,基于API的黑盒封装不是完美的解决方案,人们开始寻找一种更好的方式来参与通用人工智能研究。因此,开源项目LMFlow便应运而生。相比于从头训练或者基于API的封装,LMFlow只需要以finetune为切入点即可。这种方法通过对已有的大型语言模型进行微调,可以让人们快速地获得一个小型化的聊天机器人。使用这种方法的好处是,它减少了训练成本,同时还可以保证性能不会受到太大的影响,这使得更多人能够进入通用人工智能的领域。

除了LMFlow,还有其他类似的轻量级类ChatGPT模型被开源出来,比如基于Meta开源LLaMA系列模型的Alpaca、Alpaca-Lora和Luotuo等模型。这些模型的开源降低了研究、应用门槛,同时也降低了训练和推理成本。这意味着未来每个人都可能在自己的电脑上运行一个超级聪明的小型化ChatGPT。

尽管这些模型和ChatGPT相比,性能上可能存在一些差距,但是在很多应用场景下,这些小型化的模型足以胜任。此外,这些模型也可以进一步优化和升级,未来性能也将不断提升。因此,我们可以期待未来会有更多的人进入通用人工智能领域,开发出更加先进和实用的小型化chatGPT模型。届时我们没工人手机上都会拥有一个超级聪明的AI助理!

chatGPT体验

微信号 DrCharley

猜你喜欢

转载自blog.csdn.net/robot_learner/article/details/129923472