2023年7月第1周大模型荟萃

2023年7月第1周大模型荟萃

  • 2023.7.10
  • 版权声明:本文为博主chszs的原创文章,未经博主允许不得转载。

1、中国电信发布TeleChat大模型

在近日举行的2023全球数字经济大会人工智能高峰论坛上,中国电信集团发布TeleChat大模型,支持输出代码、写演讲稿等。TeleChat大模型是由中国电信集团数字智能科技分公司开发的一款聊天机器人,可以模拟人类对话,支持输出代码、写演讲稿等功能。该模型使用了大量的训练数据和深度学习技术,可以为用户提供自然语言处理和生成服务。

官网:https://telechat.ai/,查看其官方介绍,发现是一款上层应用,是基于ChatGPT开发的一款聊天类应用,让用户能够创建自己的聊天机器人。经过短时间试用,发现功能辣鸡,连聊天机器人的设置功能都没做好,表面上生效,实际上无效。而且回答的内容来自于ChatGPT,而且还截断了内容。呵呵,所谓的TeleChat大模型是个空壳。

2、阿里达摩院发布大模型测试基准M3Exam

随着大模型的发展,尤其是众多开源大模型的发布,如何对各种大模型进行客观的评估变得越来越重要,目前广泛受到认可的方法是利用人类考题来检验模型,从而测试模型的知识及推理能力。对于英文模型,MMLU 已经被广泛用来评估模型在多个学科上的表现。相似的,最近中文社区也涌现了例如 C-Eval 以及 GAOKAO 这种利用中文试题来测试中文大模型。近日,阿里达摩院发布了自己的大模型测试基准 M3Exam。M3Exam 是一个利用人类考题构建的多语言、多模态、多级别的测试基准,共涵盖 12317 道题目。根据 M3Exam 的测试结果,目前仍是 GPT-4 为最强大模型。

3、腾讯发布向量数据库Tencent Cloud VectorDB

7月4日下午,腾讯云正式发布AI原生向量数据库Tencent Cloud VectorDB,该数据库能够被广泛应用于大模型的训练、推理和知识库补充等场景。腾讯方面表示,它是国内首个从接入层、计算层、到存储层提供全生命周期AI化的向量数据库。根据官方公布的数据,腾讯云向量数据库最高支持10亿级向量检索规模,延迟控制在毫秒级;腾讯云向量数据库用于大模型预训练数据的分类、去重和清洗相比传统方式可以实现10倍效率的提升,同时具备百万级每秒查询(QPS)的峰值能力。如果将向量数据库作为外部知识库用于模型推理,则可以将成本降低2-4个数量级。

向量数据库通过把数据向量化然后进行存储和查询,能极大提升效率和降低成本。它能解决大模型预训练成本高、没有“长期记忆”、知识更新不足、提示词工程复杂等问题,突破大模型在时间和空间上的限制,加速大模型落地行业场景。

根据官方信息显示,腾讯视频应用,视频库中的图片、音频、标题文本等内容使用腾讯云向量数据库,月均完成的检索和计算量高达200亿次,能够满足版权保护、原创识别、相似性检索等场景需求。QQ音乐在使用腾讯云向量数据库后,人均听歌时长提升3.2%、腾讯视频有效曝光人均时长提升1.74%、QQ浏览器成本降低了37.9%。呵呵!

4、华为提出盘古气象模型:中长期气象预报精度超过传统数值方法

华为的研究人员提出了一种新的高分辨率全球AI气象预报系统:盘古气象大模型。盘古气象大模型是首个精度超过传统数值预报方法的AI方法,从1小时~7天预测精度均高于传统数值方法(欧洲气象中心的 operational IFS),同时预测速度提升 10000 倍,能够提供秒级的全球气象预报,包括位势、湿度、风速、温度、海平面气压等。盘古气象模型的水平空间分辨率达到 0.25 X 0.25,时间分辨率为1小时,覆盖13层垂直高度,可以精准地预测细粒度气象特征。作为基础模型,盘古气象大模型还能够直接应用于多个下游场景。

5、中国移动发布“九天” 1+N大模型

7 月 8 日上海人工智能大会期间,中国移动发布“九天” 1+N 大模型。该大模型为通用智能的“人工智能大平台”,定位为新型人工智能基础设施,承载面向国民经济主体的通用智能大模型、行业大模型等,基于泛在的算网基础设施,实现数据的高质量利用。

6、GPT-4 API 面向所有付费API用户开放8K上下文的直接访问

7月7日,OpenAI在官网宣布,GPT-4 API全面开放使用。现所有付费API用户都可直接访问8K上下文的GPT-4,无需任何等待。此外,OpenAI还推出了GPT-3.5 Turbo、DALL·E和Whisper API。同时将提供安全、可靠的GPT-4和GPT-3.5 Turbo的微调版本,今年晚些时候会推出。

7、上海人工智能实验室与商汤科技发布开源模型InternLM-7B

7月6日,2023世界人工智能大会上,上海人工智能实验室与商汤科技发布了全新升级的“书生通用大模型体系”,自吹“书生”(Intern)大模型在130多个评测中,性能达到世界领先或先进水平,声称升级后的“书生·浦语”是国内首个正式发布的支持8K语境长度的千亿参数级语言大模型。

上海 AI 实验室发布了开源模型 InternLM-7B,中文名“书生·浦语”大模型,包含有 70 亿参数。开发者称,“InternLM 是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM 基座模型具有较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀,在多种面向人类设计的综合性考试中表现突出。”源代码在 Apache-2.0 协议下开源,对学术研究完全开放,商业使用需获得官方的书面许可。

猜你喜欢

转载自blog.csdn.net/chszs/article/details/131637633
今日推荐