翻译: 比尔盖茨 人工智能的风险是真实存在的,但是可控的The risks of AI are real but manageable

世界在处理突破性创新带来的问题方面学到了很多东西。

人工智能带来的风险似乎势不可挡。因智能机器而失去工作的人会怎样?人工智能会影响选举结果吗?如果未来的人工智能决定不再需要人类并想要摆脱我们怎么办?

这些都是公平的问题,它们引起的关切需要认真对待。但有一个很好的理由认为我们可以应对它们:这不是第一次重大创新引入必须控制的新威胁。我们以前做过。

无论是汽车的引入,还是个人电脑和互联网的兴起,人们都经历了其他变革性的时刻,尽管经历了很多动荡,但最终还是过得更好。第一辆汽车上路后不久,就发生了第一起车祸。但我们并没有禁止汽车——我们采用了速度限制、安全标准、许可要求、酒后驾驶法律和其他道路规则。

我们现在正处于另一个深刻变革的最早阶段,即人工智能时代。这类似于限速和安全带之前的那些不确定时期。人工智能变化如此之快,以至于不清楚接下来会发生什么。我们正面临着当前技术的工作方式、人们将其用于恶意的方式以及人工智能将如何改变我们作为一个社会和个人的方式所提出的重大问题。

在这样的时刻,自然会感到不安。但历史表明,解决新技术带来的挑战是可能的。

我之前写过关于人工智能将如何彻底改变我们生活的文章。它将有助于解决过去似乎难以解决的问题——在健康、教育、气候变化等方面。盖茨基金会正在将其作为优先事项,我们的首席执行官马克·苏兹曼(Mark Suzman)最近分享了他如何看待其在减少不平等方面的作用。

关于人工智能的好处,我将来会有更多的话要说,但在这篇文章中,我想承认我最常听到和读到的担忧,其中许多我都有,并解释我是如何看待它们的。

从迄今为止关于人工智能风险的所有文章中可以清楚地看出一件事——而且已经写了很多——那就是没有人知道所有的答案。我很清楚的另一件事是,人工智能的未来并不像一些人想象的那么严峻,也不像其他人想象的那么美好。风险是真实的,但我乐观地认为它们是可以管理的。在介绍每个问题时,我将回到几个主题:

人工智能引起的许多问题都有历史先例。例如,它将对教育产生重大影响,但几十年前的手持计算器也是如此,最近,允许计算机进入教室。我们可以从过去行之有效的方法中学习。
人工智能引起的许多问题也可以在人工智能的帮助下进行管理。
我们需要调整旧法律并采用新法律,就像现有的反欺诈法律必须针对网络世界进行调整一样。
在这篇文章中,我将重点关注已经存在或即将存在的风险。我不是在处理当我们开发一个可以学习任何主题或任务的人工智能时会发生什么,而不是今天的专用人工智能。无论我们在十年还是一个世纪内达到这一点,社会都需要考虑深刻的问题。如果超级人工智能建立了自己的目标怎么办?如果它们与人类冲突怎么办?我们甚至应该制造一个超级人工智能吗?

但是,考虑这些长期风险不应以牺牲更直接的风险为代价。我现在要谈谈他们。

1. 人工智能产生的深度伪造和错误信息可能会破坏选举和民主。

技术可以用来传播谎言和谎言的想法并不新鲜。几个世纪以来,人们一直在用书籍和传单来做这件事。随着文字处理器、激光打印机、电子邮件和社交网络的出现,它变得更加容易。

人工智能解决了假文本的问题并对其进行了扩展,几乎允许任何人创建假音频和视频,称为deepfakes。如果你收到一条语音信息,听起来像你的孩子说“我被绑架了,请在接下来的1分钟内向这个银行账户汇款000美元,不要报警”,这将产生可怕的情感影响,远远超过一封说同样事情的电子邮件的效果。

在更大的范围内,人工智能生成的深度伪造可以用来试图倾斜选举。当然,不需要复杂的技术来播下对选举合法获胜者的怀疑,但人工智能会让它变得更容易。

已经有虚假视频以知名政客的捏造镜头为特色。想象一下,在一次重大选举的早晨,一段显示其中一位候选人抢劫银行的视频在网上疯传。这是假的,但新闻媒体和竞选活动需要几个小时才能证明这一点。有多少人会看到它并在最后一刻改变他们的投票?它可能会扭转局面,尤其是在势均力敌的选举中。

当OpenAI联合创始人Sam Altman最近在美国参议院委员会作证时,两党参议员都关注人工智能对选举和民主的影响。我希望这个主题继续提上每个人的议程。

我们当然没有解决错误信息和深度伪造的问题。但有两件事让我谨慎乐观。一是人们能够学会不把一切都看在眼里。多年来,电子邮件用户陷入了骗局,其中冒充尼日尔王子的人承诺提供巨额回报以换取分享您的信用卡号。但最终,大多数人学会了两眼看这些电子邮件。随着骗局变得越来越复杂,他们的许多目标也变得越来越复杂。我们需要为深度伪造建立相同的肌肉。

另一件让我充满希望的事情是,人工智能可以帮助识别深度伪造并创建它们。例如,英特尔已经开发了一种deepfake检测器,政府机构DARPA正在研究技术,以识别视频或音频是否纵。

这将是一个循环的过程:有人找到一种方法来检测假货,有人想出如何应对它,有人制定对策,等等。这不会是一个完美的成功,但我们也不会无助。

2. 人工智能使对人民和政府发动攻击变得更加容易。

今天,当黑客想要找到软件中可利用的缺陷时,他们通过蛮力来完成 - 编写代码来消除潜在的弱点,直到他们找到一种方法。它涉及很多死胡同,这意味着需要时间和耐心。

想要对抗黑客的安全专家也必须做同样的事情。您在手机或笔记本电脑上安装的每个软件补丁都代表了数小时的搜索,无论是好人还是坏心。

人工智能模型将通过帮助黑客编写更有效的代码来加速这一过程。他们还能够使用有关个人的公共信息,例如他们在哪里工作以及他们的朋友是谁,来开发比我们今天看到的网络钓鱼攻击更先进的网络钓鱼攻击。

好消息是,人工智能可以用于好的目的,也可以用于坏的目的。政府和私营部门的安全团队需要拥有最新的工具来发现和修复安全漏洞,然后犯罪分子才能利用它们。我希望软件安全行业能够扩大他们已经在这方面所做的工作——这应该是他们最关心的问题。

这也是为什么我们不应该像一些人提议的那样,试图暂时阻止人们实施人工智能的新发展。网络犯罪分子不会停止制造新工具。想要使用人工智能设计核武器和生物恐怖袭击的人也不会。制止这些行为的努力需要以同样的速度继续下去。

全球层面存在一个相关风险:人工智能的军备竞赛可用于设计和发起针对其他国家的网络攻击。每个政府都希望拥有最强大的技术,以便能够阻止对手的攻击。这种不让任何人取得成功的动机可能会引发一场制造越来越危险的网络武器的竞赛。每个人都会变得更糟。

这是一个可怕的想法,但我们有历史来指导我们。尽管世界核不扩散制度有其缺点,但它阻止了我们这一代人成长过程中非常害怕的全面核战争。各国政府应考虑建立一个类似于国际原子能机构的全球人工智能机构。

3. 人工智能将夺走人们的工作。

在接下来的几年里,人工智能对工作的主要影响将是帮助人们更有效地完成工作。无论他们是在工厂还是在办公室处理销售电话和应付账款,都是如此。最终,人工智能将足够善于表达想法,它将能够为你写电子邮件和管理你的收件箱。您将能够用简单的英语或任何其他语言编写请求,并生成有关您的工作的丰富演示文稿。

正如我在二月份的帖子中所说,当生产力提高时,这对社会有好处。它让人们有更多的时间在工作和家庭中做其他事情。对帮助他人的人的需求——例如教学、照顾病人和支持老人——永远不会消失。但确实,在我们向人工智能驱动的工作场所过渡的过程中,一些工人将需要支持和再培训。这是政府和企业的角色,他们需要妥善管理,这样工人就不会掉队——以避免美国制造业工作岗位减少期间人们生活的那种中断。

另外,请记住,这不是新技术第一次引起劳动力市场的重大转变。我不认为人工智能的影响会像工业革命那样巨大,但它肯定会像PC的引入一样大。文字处理应用程序并没有消除办公室工作,但它们永远改变了它。雇主和雇员必须适应,他们做到了。人工智能造成的转变将是一个坎坷的转变,但我们完全有理由认为我们可以减少对人们生活和生计的破坏。

4. 人工智能继承了我们的偏见并编造了事情。

幻觉——人工智能自信地提出一些根本不正确的主张的术语——通常是因为机器不理解你请求的上下文。让人工智能写一个关于去月球度假的短篇小说,它可能会给你一个非常富有想象力的答案。但是请它帮助你计划去坦桑尼亚的旅行,它可能会试图把你送到一家不存在的酒店。

人工智能的另一个风险是,它反映甚至加剧了对某些性别认同、种族、民族等人的现有偏见。

要了解幻觉和偏见发生的原因,重要的是要知道当今最常见的人工智能模型是如何工作的。它们本质上是非常复杂的代码版本,允许您的电子邮件应用程序预测您要键入的下一个单词:它们扫描大量文本(在某些情况下,几乎是在线提供的所有内容),并对其进行分析以查找人类语言的模式。

当你向人工智能提出问题时,它会查看你使用的单词,然后搜索通常与这些单词相关的文本块。如果你写“列出煎饼的成分”,它可能会注意到“面粉、糖、盐、发酵粉、牛奶和鸡蛋”这个词经常出现在这句话中。然后,根据它对这些单词通常出现的顺序的了解,它会生成一个答案。(以这种方式工作的AI模型正在使用所谓的变压器。GPT-4 就是这样一种模型。

这个过程解释了为什么人工智能可能会经历幻觉或看起来有偏见。它没有你问的问题或你告诉它的事情的背景。如果你告诉一个人它犯了一个错误,它可能会说,“对不起,我打错了。但这是一种幻觉——它没有输入任何东西。它只是说,因为它扫描了足够的文本,知道“对不起,我打错了”是人们经常在有人纠正他们后写的句子。

同样,人工智能模型继承了它们所训练的文本中存在的任何偏见。如果一个人读了很多关于医生的文章,而文本中主要提到男性医生,那么它的答案将假设大多数医生都是男性。

虽然一些研究人员认为幻觉是一个固有的问题,但我不同意。我乐观地认为,随着时间的推移,人工智能模型可以被教会来区分事实和虚构。例如,OpenAI在这方面正在做有前途的工作。

其他组织,包括艾伦图灵研究所和国家标准与技术研究所,正在研究偏见问题。一种方法是在人工智能中建立人类价值观和更高层次的推理。这类似于一个有自我意识的人的工作方式:也许你认为大多数医生都是男性,但你足够意识到这个假设,知道你必须有意识地与之抗争。人工智能可以以类似的方式运作,特别是如果模型是由来自不同背景的人设计的。

最后,每个使用人工智能的人都需要意识到偏见问题,并成为一个知情的用户。你要求人工智能起草的文章可能充满偏见,因为它充满了事实错误。你需要检查你的人工智能的偏见以及你自己的偏见。

5. 学生不会学习写作,因为人工智能会为他们完成工作。

许多教师担心人工智能会破坏他们与学生的合作。在任何一个可以访问互联网的人都可以使用人工智能写一篇受人尊敬的论文初稿的时代,有什么可以阻止学生将其作为自己的作品上交呢?

已经有人工智能工具正在学习判断某些东西是由人还是计算机编写的,因此教师可以判断他们的学生何时没有做自己的工作。但有些老师并没有试图阻止他们的学生在写作中使用人工智能——他们实际上是在鼓励它。

一月份,一位名叫Cherie Shields的资深英语老师在《教育周刊》上写了一篇关于她如何在课堂上使用ChatGPT的文章。它帮助了她的学生从开始撰写论文到撰写大纲,甚至为他们提供有关工作反馈的所有方面。

“教师将不得不接受人工智能技术作为学生可以使用的另一种工具,”她写道。“就像我们曾经教学生如何进行正确的谷歌搜索一样,教师应该围绕 ChatGPT 机器人如何协助论文写作设计清晰的课程。承认人工智能的存在并帮助学生使用它可能会彻底改变我们的教学方式。并非每个老师都有时间学习和使用新工具,但像Cherie Shields这样的教育工作者提出了一个很好的论点,即那些这样做的人将受益匪浅。

这让我想起了电子计算器在 1970 年代和 1980 年代普及的时代。一些数学老师担心学生会停止学习如何做基本的算术,但其他人则接受了新技术,并专注于算术背后的思维技能。

人工智能还有另一种方式可以帮助写作和批判性思维。特别是在这些早期,当幻觉和偏见仍然是一个问题时,教育工作者可以让人工智能生成文章,然后与学生一起检查事实。我资助的可汗学院和开放式教育资源项目等教育非营利组织为教师和学生提供免费的在线工具,这些工具非常重视测试断言。很少有技能比知道如何区分什么是真的和什么是假更重要的。

我们确实需要确保教育软件有助于缩小成就差距,而不是使其变得更糟。今天的软件主要面向已经有动力的学生。它可以为您制定学习计划,为您指出良好的资源,并测试您的知识。但它还不知道如何将你吸引到一个你还不感兴趣的主题中。这是开发人员需要解决的问题,以便所有类型的学生都能从人工智能中受益。

6. 下一步是什么?

我相信有更多的理由不乐观,我们可以管理人工智能的风险,同时最大化它们的好处。但我们需要快速行动。

政府需要积累人工智能方面的专业知识,以便他们能够制定明智的法律法规来应对这项新技术。他们需要应对错误信息和深度伪造、安全威胁、就业市场的变化以及对教育的影响。仅举一个例子:法律需要明确哪些使用深度伪造是合法的,以及应该如何标记深度伪造,以便每个人都了解他们看到或听到的东西何时不是真实的

政治领导人需要具备与其选民进行知情、深思熟虑的对话的能力。他们还需要决定在这些问题上与其他国家合作多少,而不是单打独斗。

在私营部门,人工智能公司需要安全、负责任地开展工作。这包括保护人们的隐私,确保他们的人工智能模型反映基本的人类价值观,尽量减少偏见,将利益传播给尽可能多的人,并防止该技术被犯罪分子或恐怖分子使用。许多经济部门的公司将需要帮助员工过渡到以人工智能为中心的工作场所,这样就不会有人掉队。客户应该始终知道他们何时与人工智能而不是人类互动。

最后,我鼓励大家尽可能多地关注人工智能的发展。这是我们任何人都会在有生之年看到的最具变革性的创新,健康的公开辩论将取决于每个人都了解这项技术、其好处和风险。好处将是巨大的,相信我们可以管理风险的最好理由是我们以前做过。

参考

  • The risks of AI are real but manageable
  • https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable?WT.mc_id=2023071060000_AI-Concerns_BG-EM_&WT.tsrc=BGEM

猜你喜欢

转载自blog.csdn.net/zgpeace/article/details/131927851