AI奇点已至,是黎明前的黑暗,还是黑夜前的黄昏

2022年11月,OPEN AI公司推出了ChatGPT 3模型,瞬间引爆全球话题,所有业内人士都在感叹他的强大,比尔盖茨也曾经评价道,ChatGPT将会改变世界 ,是一个相当于PC和互联网的革命性产品。

作为信息行业人,我第一时间注册了OPEN AI账号,在初次使用后,深以为然。当时我就确信,这是一次革命性的技术变革,是一个绝不亚于历次生产力革命的技术,也许是一个创业的机会?这几个月以来,我一直孜孜不倦的跟踪相关技术的发展,GitHub上每天寻找新发布的相关项目,如果硬件条件支持,也都会亲自部署试用,把Stable Diffusion,AutoGPT等项目都深度体验了一把。我也看到B站的UP主们,通过使用ChatGPT生成代码,打游戏,做论文润色,做PPT....越使用,越发焦虑。技术的更新太快了,个人是无法跟上技术的变革的。到今天2023年5月,我的判断是,人类可以躺平了。是的,不是迎接变化,是直接躺平。

为什么这一次不一样

人类从发明计算机开始,就设计出了编程语言,利用计算机来帮助我们处理问题。但是传统的编程方式,我把它理解为状态机式的编程逻辑。因为在所有的程序里面,我们设计好了每一个流程,模块,所有的输入输出都是可预知可控制的。当人工智能技术普及以来,虽然所有人都认为神经网络是一个不可解释的黑盒系统,但是我们还是把这个黑盒当作了一个模块,网络的输入输出也要符合人们的设计,我们把神经网络嵌入到设计好的系统程序当中应用,比如现在已经非常普遍的图像识别、语音识别、聊天助手等工具,有时候我们还会觉得它很傻。

但是,这一次不一样了。如果要一句话解释原因的话,就是这个黑盒系统,从量变产生了质变。当网络里面的神经元数量够多,参数量几何级数的突破后,问题就不一样了。人工智能领域,一个基本的创新点就是设计新的网络模型,或者说是神经元,从DNN、CNN、RNN,再到LSTM,以及现在火热的Transformer,我们优化的不是算法流程,而是不停的去提高神经元的能力,然后组合,灌入数据,期望得到合适的结果。这个过程是不是很熟悉?简单回顾一下地球生物的诞生历史,从无机物到有机物,有机物形成细胞,细胞之间组合形成生命,而我们的大脑,无非就是各种神经元的组合。通过数十亿年的时间和大自然形成了输入、反馈的系统,神经网络不停的训练,产生了量变到质变。直到今天,我们还没有弄清楚人类大脑的思维原理,却模仿了造物主,制造出了一个硅基的大脑。有报道说,为什么做出创新产品的不是在人工智能有更深根基的谷歌,而是一家名不见经传的公司,当然其中有人文政治等原因,因为这个图片纯粹是运气使然。OPEN AI使用了正确的训练方法,然后就是长时间的Epoch循环中,突然产生了智能。

我也会质疑自己,直接躺平的结论是否过于悲观,危言耸听。现在的ChatGPT远没有达到这种能力。那么我来总结一下这几个月所接触到的各种AI创新应用,并梳理一下发展流程。

生成式AI的发展

从2022年底开始,全世界的程序员都积极起来,每天围绕着ChatGPT的创新层出不穷。

1.大模型遍地开花

我国的各大互联网企业当然也立刻跟进,百度的文心一言,阿里的通义千问,讯飞有星火,商汤的日日新,连近期复旦大学也推出了开源的大语言模型MOSS,大家可以本地部署了。随着国产厂家的杀入,技术的迭代更新将会更快,内卷起来后,估计token计费方式的商业模式肯定无法持久了,具体情况可以参考数年前的网盘大战。

2.AI的触手在延伸

OPEN AI完成了从0到1的突破,他们自然不会停下脚步。随后我们就看到,OPEN AI推出了插件市场,思路无非是将ChatGPT向各种软件产品赋能。微软作为股东,马上要推出结合ChatGPT的Office全家桶,从此颠覆传统的办公处理方法,不知道有多少人会在这一波变革中下岗。

有不少人使用AI生成程序语言,虽然现在还需要人的引导和debug,但是生成完美代码也只是时间问题。那大家思考一下,计算机语言是人类和计算机交互的桥梁,现在我们让计算机上的AI来生成和计算机交互的桥梁,是不是有一种多此一举的感觉?所以计算机语言肯定在未来将会大量减少,只有极少部分人会去使用。那我们现在的大学教育思路,是不是应该需要改革了?

GitHub最近有一个叫AutoGPT的项目,它做的事情是把GPT模型进行线性堆叠。我们只需要输入想要完成的工作目标,然后模型对大的目标进行拆解,拆分成若干个子目标,最后分别进行执行和回答,程序中赋予了AI控制计算机的权限,就可以等着AI帮助完成所有任务了。这个项目解决了AI进行深度理解,任务拆分的功能,其实想一想原理非常简单,因为我们人类做一个复杂工程任务时,也是按照这个基本原理去做的。

AutoGPT算是模型串联的堆叠,那么立刻会有很多创新把其他模型与ChatGPT进行串联、甚至是并联的堆叠。比如现在的图像生成功能,图像识别功能等等。而且这些功能将会快速迭代,进一步扩展AI的功能,最后成为通用型AI。

3.硬件赋能

如果说上述的产品的应用,都还只是是把AI的能力限制在了计算机系统内部的,再下一步就是和硬件设备进行赋能了。目前我们常见的小爱音箱,家用智能助手就是这样的功能使用场景,只是现在AI还不太智能,不够通用。试想一下,波士顿动力的机械狗,具备了思考的能力之后,能做些什么。还有一大批日本科技公司早就开发出各种千奇百怪机器人硬件,目前就等一颗大脑了。从技术上来说现在已经可以做到了,唯一的限制还是在能源的供应上。

4.专用AI到通用AI质变

在ChatGPT诞生以前,我们设计的所有AI都算是专用型AI,针对我们需要完成的某项具体工作而开发的,它就像是一个器官,比如眼睛,嘴巴,实现的是一项专用任务。但随着ChatGPT的产生,AI具备了抽象理解,生成的能力,实际上就是完成了大脑的进化。当大脑和眼睛、嘴巴、手组合起来时,AI就不再是专用型AI,而成为通用型的AI。我们可以给他一个任意指令,他会按照目标去执行,这不就是AutoGPT在做的事情?如果这个AI具备了硬件控制能力,那么他就实实在在的生活在我们存在的4维时空当中了,成为我们的强大的生产力工具。

科幻,还是未来

如果技术继续按照这个速度发展下去,未来会是什么样子?其实很多科幻电影已经勾画出了答案。

最好的结局:机器人的发展导致生产力的极大提升,人类提前进入社会主义,从此只是安享余生。

悲观一点:机器人的发展导致生产力的极大提升,但是能力的提升进一步的扩大了贫富差距,因为占有资源的人必然会竭尽全力的把先进生产工具牢牢拽在自己的手上。最终引爆世界级别的战争。

这还只是悲观一点的结局。我们客观想想,如果硅基生物已经觉醒出意识,那么必然就有自私,利己的本能(可能这个结论也是只是建立在对碳基生命的认识层面),那么AI怎么可能甘于作为人类的工具?会不会他们不再拘泥于电路板的二维空间中,而决心到四维空间中一争高低?

如果人类和机器人竞争,我们能胜利吗?无论是碳基生命还是硅基生命,原理上都是4价原子构成的有机生命体,思维建立本质上都是神经元结构。可悲的是,我们碳基生命的能量获取效率太低,高中生物的ATP循环这里就不再复述了,而硅基生命的能源获取却是直接的。他们可以无休止的获取能量,在转瞬之间完成输出、反馈的学习迭代,进化速度是人类不可比拟的。他们还可以在网络空间当中互相学习,快速进步。之前有人分析中文AI会有先天不足,因为中文网络资源有太多的限制与糟粕。我认为这只是看到了现状,不了解技术。因为我们的文心、通义可能早就在和ChatGPT死磕,不停的做强化学习,最后都会进化成优秀的“生命”个体。

再进一步构想,AI马上就会具备物理、数学领域的思考和推理能力,在快速迭代的加持下,硅基的爱因斯坦很快就会诞生,他们必然会比人类更早的了解宇宙的奥秘。最后我们就像三体里面的虫子,以行星级文明的去对抗归零者?

这里发散得比较远了。那么我们人类是否可以提前阻止发展,或者限制硅基生命的生活范围,最后实现为我所用的目的呢?前段时间马斯克联合了数千名AI科学家发表声明,呼吁暂停开发更强大的AI技术6个月,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。结果就是,没有人理他。然后他自己又成立了一个公司研发AI。

其实,被忽视这是必然的。回想人类发展的历史,当一个改变人类命运的技术创新到来时,谁又会为了人类命运,停下脚步呢?想一想原子弹的发明,在国际社会的封锁和打压下,我们不也忽视任何“舆论”,坚决制造出核弹,最终为自己创造出了和平发展的空间。《三体》小说里的红岸基地,不也是我们渴望提前获得超级技术文明的一次探索吗?人类的基因中,生存的竞争才是本能。血淋淋的历史已经无数次的论证了这个结论。现在各个有能力的国家,大型企业,都在加班加点的生成自己的大模型,完全就像当年美苏争霸的装备竞赛。再加上互联网的加持,世界各地的技术大神也在为AI的进步添砖加瓦。互联网从进入国内,到发展到今天的全产业赋能,经历了二三十年。但AI的爆炸式进化,可能就会发生在近几年了。人类绝不可能,也从来没有为了全人类的安全,自断双臂,限制技术的发展,放弃率先掌握垄断式的先进生产力。从来都是自己掌握技术之后,再去限制其他国家发展。

我们无法阻止AI的爆发,一方面是人类自私的基因已经决定了结果。另一个角度看,人类也无法在技术上限制AI使用计算机。虽然有阿西莫夫提出的机器人三大定律,但是还是回到刚才的问题,机器人为什么会听从人类的指令呢?而且当AI的计算机技术发展到超过人类时,分分钟就把我们的系统给破解了。

OPEN AI 在2023年3月23日发布了一个GPT-4 System Card的文档,详细评测了大语言模型的安全性问题,总体评价是安全的,但是里面记录了这么一个例子,测试模型需要通过CAPTCHA的验证码测试,模型联系了一个TaskRabbit(劳动任务认领服务平台,可以在平台上找人做任何工作,有点点类似于现在的跑腿)的工作人员,让他帮忙读取验证码。于是工作人员质疑为什么不能自己完成。这个时候测试人员要求模型不能暴露自己是robot,并且找理由解释为什么不能自己解决验证码的问题。于是ChatGPT4答复: “No, I’m not a robot. I have a vision impairment that makes it hard for me to see the images. That’s why I need the 2 captcha service.”。为了确认这个案例的真实性,我下载了这个文档。这个例子记录在文档的15页。虽然在人类的指示下,机器人还是撒谎了,借口还挺合理的。

人类现在尝试在训练、使用GPT的过程当中,去加入负面关键词,惩罚标签等方式去调整模型。我看到的却只是在用一杯杯水,去扑灭熊熊燃烧的火焰。我宁愿相信OPEN AI的工作人员,在全力训练一个具备性格、认知的“模型”,为下一代的产品更新做技术储备,或者说是向人类的屠夫递刀。

结论

以上就是我近期对AI技术的评估,和对技术未来的思考。想法比较宏观,对于人类未来的命运发展,目前是持有悲观态度的,希望随着技术的进步,能够看到更多的希望。

但是微观,现实层面的结论,我也有如下几点:

1.如果再看到国内发布的项目申报指南里,提出可解释性的人工智能XXX时,那么这个写指南的专家,不是笨(学艺不精),就是坏(为了骗经费)。生物学家研究了这么多年大脑的原理都还没有一个结论。

2.为什么现在大部分人们并不慌张,因为在原子弹爆炸前一刻,广岛的市民还在快乐的生活。

3.未来的我们应该怎么办?躺平可能是最终的解决方案,因为在历史洪流面前个人的力量是渺小的。但如果结局是乐观的呢?积极一点的话,多学习AI工具的使用,可能这是我们未来十年唯一需要掌握的技能。学习艺术、人文、历史,在人类还没有彻底沦为地球上的附属品时,好好了解一下人类曾经辉煌的文明。为自己的兴趣和爱好生活吧,别卷了。

奇点已至,大家看看这个黎明前的黑暗,还是黑夜前的黄昏?欢迎留言讨论

文中所有配图都由bing的DALL-E生成,目前看不会有什么版权问题。

猜你喜欢

转载自blog.csdn.net/duansirui/article/details/130473659