ChatGPT technology and market trends

ChatGPT server, in-depth disassembly (2023)

After the release of ChatGPT, it triggered global attention and discussion, and major domestic manufacturers successively announced GPT model development plans. According to the official websites of each company, on February 7, 2023, Baidu announced that it would launch a ChatGPT-like product "Wenxin Yiyan", which is expected to launch internal testing in March this year; on February 8, Ali announced that the Ali version of ChatGPT is under development and is currently in internal testing. testing stage; on February 9, ByteDance’s AI Lab announced that it was carrying out research and development related to ChatGPT and AIGC, and would provide technical support for PICO in the future; on February 10, JD.com’s Yanxi artificial intelligence platform launched the industrial version of ChatGPT—"ChatJD ".

The computing power requirements of AI models are mainly reflected in two levels: training and inference. The current mainstream artificial intelligence algorithms can usually be divided into two stages: "training" and "inference". According to IDC data, among China's artificial intelligence server workloads in 2021, 57.6% of the load will be used for inference and 42.4% for model training. According to IDC, the load proportion of AI inference will further increase to 62.2% by 2026. Specifically:

1) Training stage:Adjust and optimize the parameters of the artificial intelligence model based on sufficient data so that the accuracy of the model reaches expectations. For complex problems in the fields of image recognition, speech recognition, and natural language processing, in order to obtain more accurate artificial intelligence models, the training phase often requires processing a large number of data sets and performing repeated iterative calculations, which consumes a huge amount of calculations.

2) Inference phase: After the training phase, the artificial intelligence model has been established and can be used to reason or predict the output corresponding to the input data to be processed (for example, given a picture, identifying objects in that picture), this process is called the inference stage. The computing power requirement for a single task in the inference phase is not as large as that of training, but since the trained model will be used for inference many times, the total calculation amount of inference operations is also considerable.

ChatGPT computing power demand scenarios include pre-training, Finetune and daily operations. Judging from the actual application of ChatGPT, starting from the training + inference framework, we can further split the computing power requirements of ChatGPT into three parts: pre-training, Finetune and daily operations according to scenarios:

1) Pre-training: Mainly train the basic language ability of the model through a large amount of unlabeled plain text data, and obtain basic large models like GPT-1/2/3;

2) Finetune: Based on the large model that has completed pre-training, it conducts secondary or multiple trainings such as supervised learning, reinforcement learning, and transfer learning to realize the model parameters. Optimization adjustments;

3) Daily operations: Based on user input information, load model parameters for inference calculations, and achieve feedback output of the final results.

Pre-training phase: Single computing power requirement depends on the number of model parameters, up to 3640 PFlop/s-day

ChatGPT is based on the Transformer architecture and performs language model pre-training. We believe that the reason why the GPT model can efficiently complete large-scale parameter calculations is inseparable from the support of the Transformer architecture. Looking at the Transformer architecture, the core is composed of encoding module and decoding module, while the GPT model only uses the decoding module. Dismantling the module can be roughly divided into three layers: feedforward neural network layer, encoding/decoding self-attention mechanism layer (Self-Attention), and self-attention mechanism mask layer, among which:

1) The main function of the attention mechanism layer is to calculate the weight of a certain word to all words (i.e., Attention), so as to better learn the relationship between all inputs, achieve understanding of the intrinsic relationship of the text, and achieve larger-scale parallelism. calculate;

2) The feed-forward neural network provides efficient storage and retrieval of data information; 3) The mask layer helps the model in this process to block words that have not yet appeared on the right side of the calculated position. Therefore, compared with the previous generation deep learning architecture RNN, the Transformer architecture can achieve larger-scale parallel computing and greatly improve computing efficiency.

Under the single large model route, large-scale parameter calculations need to be completed. Taking the GPT-3 model as an example, as the model evolves towards larger size, the number of parameters increases from 125 million in GPT-3 Small to 174.6 billion in GPT-3 175B, and the amount of calculation required for one training increases from 2.6 PFlop/s-day increased to 3640PFlop/s-day. At the same time, models under different learning samples (including small samples, single samples, and zero samples) can achieve different improvements in context learning capabilities as the number of parameters increases, and the external manifestation is an improvement in language accuracy. We believe that as large model training shows increasingly powerful practical capabilities, it may become the mainstream choice for NLP training in the future.

Reasoning stage: It is estimated that the operational computing power demand in a single month is about 7034.7 PFlop/s-day

ChatGPT had 889 million visits in the past month. According to SimilarWeb data, the number of daily visits to ChatGPT's official website has continued to rise since January 2023, from an average of tens of millions of visits per day in early January, to an average of 20 million visits per day at the end of January, to an average of 30 million visits in mid-February. As the effects of the software spread widely, user visits became more frequent. Judging from the total visits to the ChatGPT official website in the past month (2023/1/17-2023/2/17), the monthly visits to ChatGPT are 889 million times.

It is estimated that the computing power required for daily operations in a single month is about 7034.7 PFlop/s-day. During daily operations, the data processing requirements brought about by user interactions also require a large amount of computing power. According to the previous article, the total number of visits to the ChatGPT official website in the past month (2023/1/17-2023/2/17) was 889 million times. According to Fortune magazine, each time a user interacts with ChatGPT, the computing power cloud service cost is about US$0.01. Based on this, we calculated that the operating computing power cost paid by OpenAI for ChatGPT in January 2023 was approximately US$8.89 million. In addition, according to Lambda, the computing power cost required to train a GPT-3 model with 174.6 billion parameters is more than 4.6 million US dollars; according to OpenAI, the computing power required to train a GPT-3 model with 174.6 billion parameters is approximately 3640 PFlop/ s-day. We assume that the cost of unit computing power is fixed, and we calculate that the computing power required for ChatGPT's single-month operation is approximately 7034.7PFlop/s-day.

Finetune stage: ChatGPT’s single-month Finetune computing power requirement is expected to be at least 1350.4PFlop/s-day

Model iteration brings Finetune computing power requirements. From the perspective of model iteration, the ChatGPT model is not static, but requires continuous Finetune model tuning to ensure that the model is in the best application state. In this process, on the one hand, developers need to adjust the model parameters to ensure that the output content is not harmful and distorted; on the other hand, it is necessary to conduct large-scale or small-scale iterative training of the model based on user feedback and PPO strategies. Therefore, model tuning will also bring computing power costs to OpenAI. The specific computing power requirements and cost amount depend on the iteration speed of the model.

It is estimated that ChatGPT’s Finetune computing power requirement in a single month is at least 1350.4PFlop/s-day. According to IDC estimates, inference and training will account for 58.5% and 41.5% respectively of China's artificial intelligence server load in 2022. We assume that the distribution of ChatGPT's computing power requirements for inference and training is consistent with it, and it is known that a single month of operation requires 7034.7 PFlop/s-day of computing power, and one pre-training requires 3640 PFlop/s-day of computing power. Based on this, we further hypothesize: 1) Considering that the pre-training of large AI models is mainly completed through huge amounts of data feeding, and the frequency of changes in the underlying architecture of the model is not high, we assume that pre-training can be performed at most once a month; 2) Under the human feedback mechanism, Models require constant human guidance for parameter tuning, possibly multiple times per month. From this, we calculated that the single-month Finetune computing power cost of ChatGPT is at least 1350.4PFlop/s-day.

1. Servers required by ChatGPT: AI training server + AI inference server

随着计算场景扩展,算力硬件也在发生变化。在传统软件架构下,主要的模式都是CS模式,服务端大多是单机处理几千个轻量请求。而在边缘计算场景下,需要数万台服务器处理上亿个重负载请求。边缘计算机本质上是用CES模式取代CS模式,当前的互联网IT架构已经从CS模式,逐步向CDN服务为核心的CES模式转变。但当前的CDN模式比较大的局限性在于缺乏灵活性,不能解决边缘上非结构化数据存储和处理的需求,引入Edge端(边缘端)就是为了解决CS模式下无法处理的业务。而在AI训练场景下,计算量及数据类型的变化导致C-E-S又无法满足集中大算力需求,计算架构回归C-S,并向高效率并行计算演变。

服务器作为算力硬件核心,面向不同计算场景分化演进。我们认为,计算架构的变化是推动服务器技术演进的关键变量。从计算场景来看,随着计算架构从PC到云计算,到边缘计算,再到AI训练,服务器需求也在发生相应变化。从单一服务器更加强调服务个体性能,如稳定性、吞吐量、响应时间等。云数据中心服务器对单个服务器性能要求下降,但更强调数据中心整体性能,如成本、快速部署和交付。边缘计算场景下,开始出现异构计算等复杂环境计算,对数据交互实时性要求有所提升,需要在边缘端设立单独的服务器设施。而AI服务器主要专为人工智能训练设计,数据类型以向量/张量为主,多采用大规模并行计算以提升运算效率。

同一技术路线下,服务器面向数据处理需求持续迭代。复盘主流服务器发展历程来看,随着数据量激增、数据场景复杂化,不同类型服务器发展驱动力也有所差异。具体来看:

1)通用服务器:传统通用服务器的发展与计算机架构发展同步,通过处理器的时钟频率、指令集并行度、核数等硬件指标的提升优化自身性能,发展较为缓慢。

2)云计算服务器:云计算的概念于20世纪80年代提出,仅20年后就有较为成熟的产品推出,如VMware的VMware Workstation和亚马逊AWS等。2010年随着OpenStack开源,阿里云、华为云等项目相继布局,云计算行业快速走向成熟。

3)边缘计算服务器:边缘计算概念孵化于2015年,仅2年后就有诸如亚马逊AWS Greengrass、谷歌GMEC等边缘计算平台产生,并在微软的带领下提前进入技术并购期。

4)AI服务器:AI服务器最早由思科在2018推出,专为人工智能、机器学习的工作服务而设计,硬件架构更加适合AI训练场景下的算力需求。

2、云计算服务器:大规模数据处理需求下的商业模式变革

数据量激增带来大算力需求,云计算服务器应运而生。通用服务器通过提高硬件指标提升性能,而随着CPU的工艺和单个CPU的核心数量接近极限,通用服务器性能难以支持数据量激增带来的性能需求。云计算服务器则通过虚拟化技术,将计算和存储资源进行池化,把原来物理隔离的单台计算资源进行虚拟化和集中化。最终以集群化处理来达到单台服务器所难以实现的高性能计算。同时,云计算服务器集群的计算能力可以通过不断增加虚拟化服务器的数量来进行扩展,突破单个服务器硬件限制,应对数据量激增带来的性能需求。

云计算服务器节约部分硬件成本,降低算力采购门槛。早期大规模数据处理成本极高,原因在于通用服务器的购置和运维成本居高不下。传统服务器中均包含处理器摸块、存储模块、网络模块、电源、风扇等全套设备,而云计算服务器体系架构精简,省去重复的模块,提高了利用率。同时云计算服务器针对节能需求,将存储模块进行虚拟化,并去除了主板上的非必要硬件,降低了整体计算成本,并通过流量计费模式,使得更多厂商可以负担算力开支,降低了算力采购门槛。

3、边缘服务器:高数据密度和带宽限制下保证低时延

边缘计算在云计算的基础上引入边缘层。边缘计算是在靠近物或数据源头的网络边缘侧,为应用提供融合计算、存储和网络等资源。在体系架构上,边缘计算在终端层和云层之间引入边缘层,从而将云服务扩展到网络边缘。其中终端层由物联网设备构成,最靠近用户,负责收集原始数据并上传至上层进行计算;边缘层由路由器、网关、边缘服务器等组成,由于距离用户较近,可以运行延迟敏感应用,满足用户对低时延的要求;云层由高性能服务器等组成,可以执行复杂计算任务。

边缘计算较云计算在实时性、低成本和安全性等方面有优势:

1)实时性:边缘计算将原有云计算中心的计算任务部分或全部迁移到与用户距离更近的网络边缘进行处理,而不是在外部数据中心或云端进行,因此提高了数据传输性能,保证了处理的实时性。

2)低带宽成本:终端产生的数据无需远距离传输至云端,避免带宽成本。同时,边缘计算机制中,边缘层可对终端产生数据进行预处理,从而降低云计算中心的计算负载。

3)安全性:边缘计算在本地设备和边缘层设备中处理大部分数据而不是将其上传至云端,减少实际存在风险的数据量,避免数据泄露危险。

4、AI服务器:更适合深度学习等AI训练场景

AI服务器采取GPU架构,相较CPU更适合进行大规模并行计算。通用服务器采用CPU作为计算能力来源,而AI服务器为异构服务器,可以根据应用范围采用不同的组合方式,如CPUGPU、CPUTPU、CPU其他加速卡等,主要以GPU提供计算能力。从ChatGPT模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型RNN来看,Transformer架构下,AI模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从GPU的计算方式来看,由于GPU采用了数量众多的计算单元和超长的流水线,因此其架构设计较CPU而言,更适合进行大吞吐量的AI并行计算。

深度学习主要进行矩阵向量计算,AI服务器处理效率更高。从ChatGPT模型结构来看,基于Transformer架构,ChatGPT模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而AI服务器中往往集成多个AI GPU,AI GPU通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI服务器往往较GPU服务器计算效率更高,具备一定应用优势。

AI服务器分类方式有两种:

1)按应用场景:AI服务器按照应用场景可以分为深度学习训练型和智能应用推理型。训练任务对服务器算力要求较高,需要训练型服务器提供高密度算力支持,典型产品有中科曙光X785-G30和华为昇腾Atlas 800(型号9000、型号9010)。推理任务则是利用训练后的模型提供服务,对算力无较高要求,典型产品有中科曙光X785-G40和华为昇腾Atlas 800(型号3000、型号3010)。

2)按芯片类型:AI服务器为异构服务器,可以根据应用范围调整计算模块结构,可采用CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡等组合形式。目前,产品中最常见的是CPU+多块GPU的方式。

常见的AI服务器分为四路、八路、十六路。一般来说,通用服务器主要采用以CPU为主导的串行架构,更擅长逻辑运算;而AI服务器主要采用加速卡为主导的异构形式,更擅长做大吞吐量的并行计算。按CPU数量,通用服务器可分为双路、四路和八路等。虽然AI服务器一般仅搭载1-2块CPU,但GPU数量显著占优。按GPU数量,AI服务器可以分为四路、八路和十六路服务器,其中搭载8块GPU的八路AI服务器最常见。

AI服务器采用多芯片组合,算力硬件成本更高。我们以典型服务器产品为例拆解硬件构成,可以更清晰地理解两类服务器硬件架构区别:以浪潮通用服务器NF5280M6为例,该服务器采用1~2颗第三代Intel Xeon可扩展处理器,据英特尔官网,每颗CPU售价约64000万元,故该服务器芯片成本约64000~128000;以浪潮AI服务器NF5688M6为例,该服务器采用2颗第三代Intel Xeon可扩展处理器+8颗英伟达A800 GPU的组合,据英伟达官网,每颗A800售价104000元,故该服务器芯片成本约96万元。

5、ChatGPT需要的芯片:CPU+GPU、FPGA、ASIC

GPT模型训练需要大算力支持,或将带来AI服务器建设需求。我们认为,随着国内厂商陆续布局ChatGPT类似产品,GPT大模型预训练、调优及日常运营或将带来大量算力需求,进而带动国内AI服务器市场放量。以GPT-3 175B模型预训练过程为例,据OpenAI,进行一次GPT-3 175B模型的预训练需要的算力约3640 PFlop/s-day。我们假设以浪潮信息目前算力最强的AI服务器NF5688M6(PFlop/s)进行计算,在预训练期限分别为3、5、10天的假设下,单一厂商需采购的AI服务器数量分别为243、146、73台。

AI大模型训练需求火热,智能算力规模增长有望带动AI服务器放量。据IDC数据,以半精度(FP16)运算能力换算,2021年中国智能算力规模约155.2EFLOPS。随着AI模型日益复杂、计算数据量快速增长、人工智能应用场景不断深化,未来国内智能算力规模有望实现快速增长。IDC预计2022年国内智能算力规模将同比增长72.7%至268.0 EFLOPS,预计2026年智能算力规模将达1271.4 EFLOPS,2022-2026年算力规模CAGR将达69.2%。我们认为,AI服务器作为承载智能算力运算的主要基础设施,有望受益于下游需求放量。

ChatGPT创业潮

最近一段时间,ChatGPT从AI领域破圈,成了互联网领域的新风口。创业者和投资人也兴奋起来了。

创业的方向已经很明了。做中国版对标ChatGPT的大模型,是显而易见的一条路。目前百度的“文心一言”已经呼之欲出,原美团联合创始人王慧文也宣布携5000万美元进军AI,要打造中国的OpenAI(ChatGPT的研发公司)。

同时,将ChatGPT这样的大模型平行扩展,从文字信息知识模型扩展到图片、视频等领域,也有同等机会。另外,顺着ChatGPT的方向再往前走一步,又是另一个思路,如今的ChatGPT理解能力强,但准确性和时效性弱,在后者上下功夫,也是不少创业者在做的事。

大模型之外,ChatGPT在各垂直领域的应用可能是适合更多创业者的路径。ChatGPT可以应用到文案、营销、设计、行业研究等文化传媒领域,还有医疗+AI,教育+AI,企业服务中的智能客服、数字人,以及游戏等各行各业中。有从业者提到,每个领域都可以训练适合自己的ChatGPT。

机会有很多,不过最终作为创业投资项目,其可行性还待验证。现在,ChatGPT欠缺严密的逻辑能力,也缺乏一些常识,在很多领域的应用壁垒不高但模型训练成本高,短期之内商业化也有难度。

投资人最近既兴奋又焦虑,市场很热,但蹭热度的占据大多数,真正靠谱的项目不多,他们目前普遍处于高度关注但下手谨慎的状态。毕竟,ChatGPT会颠覆很多领域,但这个蛋糕最终被大厂还是创业公司吃到还是个未知数。

大模型、小场景,盯紧ChatGPT

要找到ChatGPT领域的创业投资机会,有必要先弄清楚ChatGPT的特点。

众所周知,ChatGPT是生成式AI,与之对应的是分析式AI。微软投资的人工智能企业OpenAI从2015年开始研发这个模型,直到2020年,OpenAI发布了GPT-3语言模型,才引起国内外科技从业者对生成式AI的关注。

如今的ChatGPT,是OpenAI在ChatGPT-3.5的基础上,模拟人的自然语言,重点做了聊天对话方面的训练而形成的,同时,这一代的ChatGPT具备了创造、生成内容的能力。

英诺天使基金合伙人王晟告诉深燃,他们一年半之前就把AIGC(利用人工智能技术来生成内容)确定为主要投资方向了,也已经投了专注大模型的项目深言科技和做全新应用场景的公司深空交响。

ChatGPT突然爆了,“好处是我们已经投了的项目非常受人关注,最近每天都有好几个投资机构去和他们约见面。不好之处是本来我们在这一波AIGC方面的认知和布局是领先行业的,相对有时间逐步完善布局,现在这一波热度让市场开始变得混乱。”他说。

在王晟看来,国内ChatGPT相关的创业投资机会有两大方向:第一是研发大模型,直接对标ChatGPT,比如做中国版ChatGPT,同时,在ChatGPT这类语言大模型之外还可以扩展到图片、视频等领域;第二就是将ChatGPT垂直应用到各个细分领域。

目前,涉足大模型的国内大厂已有不少。百度的文心一言、华为的盘古模型,字节跳动和达摩院也有自己的模型。这些大部分是语言模型,也有一些多模态的模型,比如达摩院的M6模型,它可以生成文本,也可以生成图像。但国内的模型可能限于某些比较小众的应用,还没有形成非常大规模的市场影响力。

初创企业在该领域也有相当的发展。其中,比较有代表性的国内人工智能企业“智谱AI”近年来一直在做关于千亿模型和万亿模型的研究。他们主导研发了多语言千亿级预训练模型(是深度学习架构,经过训练以执行大量数据上的特定任务)GLM-130B,并打造了认知大模型平台(认知模型是指描述人类认知结构和认知过程的模型)Bigmodel.ai,形成了AIGC产品矩阵,提供智能API(应用程序接口)服务。从应用落地层面,智谱AI于2022年推出的AI数字人,在北京冬奥会及卡塔尔世界杯上受到广泛关注。 “大模型需要高水平团队,得是资深从业者,同时有比较强的AI工程化能力,另外我们倾向于看好曾经花过大钱做过大模型的团队。”王晟说。不过他也指出,中国能做语言类大模型的团队非常有限,加上大厂、一些科研机构和创业公司,总体数量可能不超过十个团队,加上图片、音乐、视频、3D资产等领域的大模型,全国能投的标的也就几十个。所以说大模型是一个重点关注的范围,但投资机构和普通创业者能抓住的机会不多。

ChatGPT如何适用细分领域,是更多创业者关心的事情。在这里,我们先解释一下ChatGPT身上的一些特性。跃盟科技创始人兼CEO王冉对深燃分析,评价一个模型好坏要从处理信息的适用性、准确度、时效性三个维度来看。ChatGPT对标的是搜索,可以从这三个维度对比ChatGPT和搜索的差别。

他进一步解释:搜索目前用的主要是关键词搜索,ChatGPT却能很好地识别自然语言,所以在适应性上,ChatGPT能做到满分10分;在信息的准确度上,现在搜索引擎已经做到了前十条结果点击率95%,前三条的结果点击率80%-85%,ChatGPT在准确度上做了妥协,在知识跟推理里用了更模糊的方式,准确率远远不如搜索,能打6分;在时效性上,ChatGPT是0分,它的模型是以年为单位训练的,不适合处理有时效性的信息。

所以ChatGPT是一个强适应性、弱准确度、弱时效性的产品模型,在这样的特点之下,应用场景也就明确了。

“这些特点就决定了ChatGPT不适合从0到1,更适合从1到N,它不能代替用户寻找正确答案,而适合在搜索之后做二次加工处理,比如总结、分类、做表、纠错、写代码,另一类应用是模糊推理下的创造,比如写小说、创意设计。”王冉说。

理论上说,基于ChatGPT大模型,能做各个行业的解决方案,来提升生产力,比如媒体、设计、营销、行业研究、智能客服、影视特效、教育、医疗、游戏等领域。王晟也提到,现在很多广告公司平面设计师的工作很大程度上已经是AI在做,设计师对成果再做优化,另外,ChatGPT如果运用到游戏中,里面的NPC可以真实互动,游戏也会变得更酷。

AI、医疗、教育,谁能借ChatGPT起飞?

ChatGPT具体怎么应用到细分领域,创业者的现身说法最有说服力。

王冉的跃盟科技从2016年就专注AI赛道,目前在做服务直播、新媒体或新的电商形态的AIGC模型。“我们提供一个模型底层技术,能在搜索之上,把直播间的商品按照用户的需求呈现出来,比如用户搜索情人节买点什么,我就把所有直播间在卖的对应商品信息整理出来,用对话或搜索推荐的方式推给用户。”

在这一业务中,王冉重视的是模型的准确性和时效性,因为电商的平台信息、价格信息都要准确,时效上,要做到小时级乃至分钟级。

“现在我们要做的就是准备好迎接大模型的到来。”医疗AI领域创业公司“左手医生”创始人张超说。最近每天找他咨询的同行很多,大家都在讨论怎么用、效果怎么样、怎么投入,他的感受是,ChatGPT让医疗AI领域原来很多不好解决的问题忽然能解决了,AI医生离商业化、大规模使用又近了。

张超整理了ChatGPT对医疗AI的影响,首先,ChatGPT可以用在文档的处理类任务上,比如,抽取类、结构化类任务、摘要类任务,解决医生的文书工作;同时,可以带动一堆监管类任务应用,比如质控、DRG(疾病诊断相关分组);还有一个重要应用是人机沟通类任务,比如智能自诊、预问诊、分导诊、随访等;最后,ChatGPT对全科医生的打造也更有利,比如AI能更好地辅助诊断、做指标解读、开方、做基础患者教育、完成智能问答等。

“AI医生目前需要解决的核心就是语义问题,以前我让AI系统理解10个指令,如果患者的问题不在这10个指令范围之内,系统就不会回答了,因为患者输入的问题可能用的不是标准表达方式,有了ChatGPT,新指令出现的时候它还能很好地处理。”另外,张超还提到,大家一直吐槽AI电话随访是人工智障,有了ChatGPT,系统可能对患者的提问对答如流,也可能从患者语无伦次的回复中整理出有价值的数据。 “原来我们做的是一个70分的产品,这一版优化完升级之后,应该能达到90分。接下来行业里面如果有人发布了大模型,我们会考虑采购,在大模型基础上用我们的数据去升级优化模型。”张超预计再过两三个月就能用起来,就看OpenAI或国内大厂谁先开放出来,“不过投入也不会少,硬件追加大概得1000-2000万元,预期在这块投入的研发成本一年也得近3000万元。”

教育和ChatGPT契合的场景也很多。

在新东方优编程董事长朱宇看来,在学前阶段,ChatGPT可以做成一个能够帮助孩子探索世界,解答小孩各类问题的陪伴机器人,上升到小学、中学,经过训练的ChatGPT可以像老师一样答疑,比如学生的水平比较低,就调取最低级的概念解释,一步步告诉答案,如果提问者是个水平很高的学生,直接说几个关键步骤就行。再往上一层级,ChatGPT能做到个性化推送学习素材,甚至能编写针对每一个学生的教材。

“ChatGPT现在已经会写小说、写报告了,实际上学生用的教材涉及到的知识点是固定的,比小说和报告的素材更简单,只需要用不同层次的学生听得懂、有兴趣听的方式输出就可以了,比如可以选择更活泼幽默的方式。”朱宇说,这可能是跨时代的意义,几乎能颠覆过去三四千年以来的知识传递方式。

悉之智能创始人兼CEO孙一乔目前看好ChatGPT做语言学习方面的结合,“我最近正好在学英语,以前都是跟外教一对一练习,但外教不太懂中文,有一些词汇我表达不出来,外教也不知道我想说什么,我的合伙人利用现在的ChatGPT加上语音识别与合成功能,结合一个虚拟AI形象,做出了可以与我进行流畅的英语对话的AI老师,大大的提高了我的英语学习效率,降低了学习成本。未来一些以真人为主的英语教学,可能会被替代。”

诸如此类ChatGPT在细分领域的应用机会有很多,需要的是一线从业者敏锐的洞察力。

成本高、壁垒低,ChatGPT应用尚待时机

虽然国内大模型技术的发展呈现百花齐放的态势,但不得不承认我们与国外在基层技术上的差距。

ChatGPT背后是GPT-3.5模型,有从业者提到,国内目前大约在GPT-3甚至比GPT-3还差一些的水平,在这点上,国内处于追赶国外的状态,而且追赶难度还不小。

“新技术的研发道阻且长,其中包含着巨大的挑战,但大模型的中国创新是必经之路。接下来从GPT-3到GPT-3.5到ChatGPT这条路径中的必要工作,我们会持续去做。”智谱AI方面表示。

即便是王慧文这样的互联网大佬要入局,也有很多质疑的声音。有从业者说,“5000万美元够干什么?大模型训练一次就要花500万美元。”

另外,前文提到的很多创业投资机会,还停留在理论层面,要真的实现起来,创业者还将面临不小的阻力。

近年来王晟接触了很多生成式AI相关的项目,有设计衣服和服装面料的,有写文本的,有为电商行业提供营销方案的,还有图片、视频内容生成工具。他不看好其中大部分项目的原因是,没有纵深壁垒,王晟希望ChatGPT应用的领域有一定深度,否则只是做产业中的一个点,很容易被大厂颠覆。“比如,有项目要做AI生成式短视频平台,就相当于有AI辅助功能的抖音,这是抖音、快手之类的大厂升级的机会。”

所以在他看来,AI这一波落地的场景非常多,看上去很热,但投资人非常焦虑,大部分都没有创业和投资的机会,很难出手。

朱宇也提到,ChatGPT在教育领域真正实现还需要时间。首先需要一个专业的教育知识语料库,谁能建立语料库,能不能和ChatGPT结合都是需要考虑的问题;其次,还需要提升ChatGPT的准确度,如果只是作为一个聊天工具,它可以信心满满地“胡说八道”,但要是给学生讲解知识,必须要准确;第三,需要等ChatGPT整体的算力成本降下来,否则它在跟学生对话的时候,成本比真人老师都高。

另外,每个技术的诞生都会存在滥用的问题,现在国外有些学校、科研机构、期刊杂志禁止使用ChatGPT写论文。这也是ChatGPT发展应用路上的问题。

在王冉看来,创业要有差异化的角度,ChatGPT直接套用,业务很容易被OpenAI覆盖。他认为,不应该过度去追ChatGPT适应性的维度,而要去思考一下准确性加时效性角度,每个赛道都应该做自己的模型,而不是用模型直接套赛道。“ChatGPT代表着适应性极强的一种方式,比如互联网相关的一些领域,不能以年为训练单位,时效性如果能到天、小时的维度,自然有机会。”

孙一乔也持有类似的观点,如果创业者只是基于ChatGPT3或ChatGPT3.5去做一些应用,风险很大。“比如一些估值很高的NLP领域的文本公司,ChatGPT一出,公司市值可能就要作废了。”

所以在他看来,ChatGPT会产生一个新生态,创业机会会出现在OpenAI的主线不涉及的领域,而且创业公司要有独创的算法和前瞻性,比如以ChatGPT为基础再往前进一步,建立护城河。

悉之智能一直以来做的是AI解题方向的探索,目前ChatGPT有很强的同理心和理解能力,但相对缺乏逻辑能力,无法完成数学题之类更复杂的问题。“让AI获得逻辑能力,稳定完成更加复杂的任务,比如AI解体,或许会成为下一个十年AI领域最重要的课题。这也是我们努力的方向。”孙一乔说。

有人觉得,ChatGPT的能力被夸大了,多位从业者一致认为,ChatGPT不是天才也不是白痴,说ChatGPT是万能的,肯定夸大了,但如果说中国一两年就能追上,显然是低估了难度。

确实,ChatGPT并不是通用人工智能,目前可以理解为是一个读了几千万本书,但没有太多生活经验的人,虽然在文本层级有了能力,但学习人类对知识应用、逻辑推理、转化为行为的能力,是AI下一个阶段的重要命题。

无论如何,ChatGPT已经搅动了整个科技互联网行业这一潭水,全行业都在关注、学习,及时吸收利用其中的精华。至于二者将会碰撞出什么样的火花,还需要交给时间。

Guess you like

Origin blog.csdn.net/qq_39312146/article/details/129311686