戴琼海院士:5年后大模型将成为AI的操作系统!

 Datawhale干货 

作者:戴海琼院士,编辑:中国电子报

f1ee0bd5ac0394415c2ed92a7c7b29a2.jpeg

4月20日,由赛迪顾问有限公司主办的2023 IT市场年会在京召开。会上,中国工程院院士戴琼海发表演讲。戴琼海表示,拓宽数据边界、推动算法创新、打破算力瓶颈将是未来带来应用变革、引领人工智能基础突破的必由之路。戴琼海指出,目前,我国人工智能发展现状处于应用强势、基础较为薄弱的状况,强化原始创新避免陷入“无源之水”的困境是我国人工智能发展破局的重中之重。要推动人工智能的创新发展,“数据”“算法”与“算力”是发展支柱:数据是人工智能的教材,决定智能的范围;算法是人工智能的大脑,决定智能的水平;算力是人工智能的引擎,决定智能的效率。

新型数据将成新一代AI发展主要驱动力

自诞生以来,人工智能已经经过了三次迭代。第一代人工智能系统基于规则运行,第二代人工智能基于统计机器学习,第三代,也就是目前被大量应用的人工智能则基于“深度学习神经网络”。随着AlphaGo核心深度学习技术与以ChatGPT为代表的大模型技术的发展与应用,以大数据为基础的深度学习已经涵盖到生物医药、软硬件系统、科学计算、能源与基础数学研究等多个领域,推动了城市、教育、医疗、机器人等领域的智能化发展。

细数人工智能的发展历程,不难发现,人工智能的发展始终伴随着数据的发展。在过去数十年的发展中,信息化的普及带来了数据膨胀,互联网时代的到来也导致了不可避免的数据爆炸。随着可处理数据边界、智能算法能力和可影响环境范围的拓宽,数据边界范围与物理环境建的差距不断缩小,数据成为了支撑人工智能发展的重要因素。在大数据、大模型与深度学习算法大行其道的当下,数据的大小与完备性直接决定了人工智能模型的能力,这也意味着新型数据将成为新一代人工智能发展的主要驱动力之一。

戴琼海指出,目前,我国已经抢先实现了对亿级数据的处理,并实现了十亿像素级的图像输出。未来,我国抢占人工智能与数据发展主导权的关键在于实现从限定场景扩大到开放场景的过渡,实现人工智能对于复杂环境的理解。

5年后大模型将成AI关键基础平台

“大模型将更快成熟带来应用变革,生物启发智能将引领人工智能基础突破。”戴琼海表示,算法的创新之路是通过“更大”和“更精”方向的发展实现“更强”目标的道路。一方面,算法要持续挖掘深度学习潜力,拓宽深度广度、增大神经网络,令大模型从规模的量变实现性能的质变;另一方面,算法要寻求全新的颠覆智能体系,借鉴生物智能、构建全新算法,以新质方法形成全新机制的颠覆性创新。通过多路径协同融合,带动人工智能的算法突破。

大模型的训练是扩大模型规模的主要方法。当下,大模型的数据日趋庞大、模型日趋复杂、任务日趋多样、成本也随之日趋高昂。戴琼海预测,大模型预计5年左右将成为人工智能应用中的关键基础性平台,类似PC时代操作系统。

值得一提的是,戴琼海表示,融合脑与认知的人工智能新算法与模型——认知计算是世界人工智能研究的最前端。认知计算是指通过先进神经技术,揭示脑结构、脑功能与智能产生的多层次关联与多模态映射机制,建立认知模型和类脑智能体系。戴琼海指出,认知计算是沟通脑科学与人工智能的桥梁,预计10年以后,以认知智能为核心的人工智能将开始步入应用阶段。

算力优化与创新刻不容缓

据介绍,算力是人工智能发展的重要支撑。随着技术的不断迭代与数据、算法的不断突破,到了今天,算力的发展已经远远落后于算法的发展,算力也逐渐成为了人工智能发展的制约因素。戴琼海指出,根据摩尔定律,算力每两年会翻一番,如果要迎合当下的发展需求,理论上算力每3、4个月就要翻一番。为了弥补日渐严峻的算力短板,打破人工智能发展瓶颈,算力的优化与创新刻不容缓。

戴琼海指出,我国主流的算力发展之路是聚焦通用芯片的优化与专用芯片的设计,同时,我国也积极发展新赛道,发展新型计算架构。

目前,算力创新的路线有量子计算、光电计算、人工智能芯片和通用芯片几种,其中,光电智能计算技术突破与芯片研制是世界科技竞争前沿,能够实现速度与能效的颠覆性提升,同时对当代计算的速度、能量效率和数据通量实现变革。

9d234f22e9311a8b2bd9051c4f1ef7e5.png

干货学习,三连

猜你喜欢

转载自blog.csdn.net/Datawhale/article/details/130716739