“ChatGPT之父”等350名业内人士签署公开信并警告:AI可能灭绝人类

人们对 AI 技术的发展和应用有了更加深入的思考与探讨。

日前,超过350名人工智能(AI)领域的行业高管、专家和教授签署了一封公开信,他们在信中警告称,AI可能给人类带来灭绝风险。

这份公开信发布在非营利组织人工智能安全中心(Center for AI Safety)的网站上,签署者包括OpenAI首席执行官山姆·奥特曼、DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。

公开信的核心只有一段话:“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球优先事项。”这份公开信由超过 350 名从事人工智能工作的高管、研究人员和工程师签署,他们呼吁加强监管和管理,避免类似的问题出现。

来源:官网截图

自聊天机器人ChatGPT掀起AI热潮以来,对这项技术潜在风险的担忧持续增加。此次公开信引发了广泛关注和热议,也使得人们对 AI 技术的发展和应用有了更加深入的思考与探讨。

其实早在今年3 月,就一篇有关叫停 6 个月 AI 研究的公开信火遍了全网。

包括特斯拉CEO埃隆·马斯克在内的1000多名行业高管和专家签署公开信,呼吁在6个月内暂停高级AI的开发。马斯克等人在信中写道,高级AI可能会对社会和人类构成深远的风险。

扫描二维码关注公众号,回复: 15307883 查看本文章

公开信的原文如下:

人工智能具有与人类竞争的智能,这可能给社会和人类带来深刻的风险,这已经通过大量研究得到证实,并得到了顶级AI实验室的认可。正如广泛认可的阿西洛马尔人工智能原则(Asilomar AI Principles)所指出的,先进的 AI 可能代表地球生命历史上的重大变革,因此应该以相应的关注和资源进行规划和管理。不幸的是,即使在最近几个月, AI 实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞争,而没有人能够理解、预测或可靠地控制这些数字化思维,即使是它们的创造者也无法做到这一点。现代 AI 系统现在已经在通用任务方面具有与人类竞争的能力,我们必须问自己:

我们应该让机器充斥我们的信息渠道,传播宣传和谎言吗?

我们应该将所有工作都自动化,包括那些令人满足的工作吗?

我们应该发展可能最终超过、取代我们的非人类思维吗?

我们应该冒失控文明的风险吗?这些决策不应该由非选举产生的科技领导人来负责。只有当我们确信AI系统的影响是积极的,风险是可控的,我们才应该开发强大的AI系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。

OpenAI 最近关于人工智能的声明指出:「在某个时候,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,需要同意限制用于创建新模型的计算增长速度。」我们同意。现在就是那个时刻。因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的时间,不要训练比 GPT-4 更强大的 AI 系统。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实行一个暂禁令。

AI 实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议,这些协议应该由独立的外部专家严格审核和监督。这些协议应确保遵守它们的系统在合理怀疑范围之外是安全的。

这并不意味着暂停AI发展,而只是从不断迈向更大、不可预测的黑箱模型及其突现能力的危险竞赛中退一步。AI 研究和开发应该重点放在提高现有强大、先进系统的准确性、安全性、可解释性、透明度、鲁棒性、对齐、可信度和忠诚度。与此同时,AI 开发者必须与政策制定者合作,大力加速 AI 治理体系的发展。这些至少应包括:

专门负责 AI 的新的、有能力的监管机构;

对高能力 AI 系统和大型计算能力池的监督和跟踪;

用于区分真实与合成内容、跟踪模型泄漏的溯源和水印系统;

健全的审计和认证生态系统;对 AI 造成的损害承担责任;

技术AI安全研究的充足公共资金;

应对 AI 引起的巨大经济和政治变革(特别是对民主制度的影响)的资深机构。人类可以在 AI 的帮助下享受繁荣的未来。在成功创造出强大的 AI 系统之后,我们现在可以享受一个「AI 盛夏」,在其中我们收获回报,将这些系统明确地用于造福所有人,并让社会有机会适应。在面临可能对社会造成灾难性影响的其他技术上,社会已经按下了暂停键。在这里,我们也可以这样做。让我们享受一个漫长的AI盛夏,而不是毫无准备地冲向秋天。

猜你喜欢

转载自blog.csdn.net/lqfarmer/article/details/131132032
今日推荐