【翻译】伦理人工智能是什么?初步了解

昨晚,在修改这篇文章时,我正试图决定应该如何介绍这个话题。首先,有一个人工智能(AI)本身的问题。它是一个广泛的研究领域,其应用之一是机器学习。将机器学习称为一般意义上的 "人工智能 "已成为行业规范,这并不完全正确。在本文中,我们将用人工智能来指称这个研究领域及其所有的应用,包括机器学习。

然后是伦理学问题。 我的意思是,伦理学--如果你在维基百科上查找它,你会发现伦理学理论早于哲学思考(尽管其含义更接近于 "美德 "或 "卓越")。正如你所期望的那样,光是对其定义的讨论就非常多。 伦理问题在软件的其他分支中出现的频率可能至少和在我自己的领域中一样。正如Charles Humble和Heather Joslyn最近指出的那样,"即使没有人工智能,坏软件也会毁掉生命"。

谈到 "人工智能伦理",人们通常会联想到阿西莫夫著名的机器人三定律,这很不幸,因为它们是基于一个巨大的误解。也许我们可以通过最近的一则美国新闻找到一个更好的定义。"波特曼、海因里希敦促国家科学基金会在人工智能研究和创新中优先考虑安全和道德"。

这篇

新闻稿是关于两位参议员给国家科学基金会(NSF)的一封信,其中--除了政治和科学的优点--包含了以下定义:

"广义上,人工智能安全是指改进人工智能系统的技术努力,以减少其危险,而人工智能伦理是指对人工智能系统的定量分析,以解决从公平到潜在歧视等问题。"

没有具体说明哪些危险可能与人工智能安全有关,虽然想到的形象是终结者的天网 。然而,"人工智能具有的潜在歧视 "在这封信中被重复了好几次。这绝对是可以理解的,特别是考虑到美国目前的社会政治气候。同时,反复使用 "歧视 "一词使 "人工智能伦理 "看起来被简化为 "人工智能偏见"。这是一个危险的缩减,因为虽然人工智能偏见无疑是一个问题,但我们日常生活中受人工智能影响的许多其他方面都可以通过伦理视角来看待。

我如何帮助你帮助我帮助你?

今年早些时候,我有机会观看一个题为 "L'éthique ou comment protéger l'IA de l'Humain pour protéger l'Humaine de l'IA"的演讲 - 可以宽泛地翻译为 "伦理或如何保护人工智能免受人类的影响,以便保护人类免受人工智能的影响"。在这个演讲中,Amal El Fallah-Seghr教授说:"我们的目标是要保护人工智能。Amal El Fallah-Seghrouchni--一位世界级的人工智能研究者和联合国教科文组织世界科学知识与技术伦理委员会(COMEST)的成员--将受人工智能影响的领域分为:

  • 社会(更具体地说,引用所有可用数据带来的控制冲动以及可以从中推断出的内容);
  • 生态系统(计算资源的使用增加导致能源消耗增加);以及
  • "人类生活和人类精神"(新的行动和思维方式、人类互动,以及由此产生的认知决策过程)。

人工智能对这些领域中的每个方面都有影响--有些方面比其他方面更容易识别。例如,如果我们考虑到人工智能驱动的系统对用户数据的大量使用,就可以相当合理地理解,人工智能可以直接影响到与隐私有关的一切。此外,考虑到大多数人工智能驱动的决策过程的性质,透明度可能是一个问题--我们将在后面谈论这个问题。

其他受影响的方面也很容易从因果分析中推断出来,与责任和问责有关。比方说,一家汽车厂决定使用人工智能来创造一个更具成本效益的制造过程。由人工智能驱动的软件得出结论,车辆的某个部分可以用不同的方式进行组装。如果不成功,而且新工艺实际上比原来的工艺成本更高,那么软件供应商/开发团队可能会受到指责,会出现倒退,工厂会损失一些钱,有人可能会被解雇,但最终生活会继续。

现在--想象一下,我们正在谈论一个由人工智能驱动的司法系统,其中软件取代了陪审团。尽管听起来很神秘,但我们并不真的需要一个巨大的软件来做到这一点;现有的法律体系(以及在其中做出的决定)已经受到本地化系统中使用的数据和算法,以及其他自动化决策的影响。如果有人被认为是有罪的,而他们不是作为一个错误的后果(如你所知,没有软件是没有错误的)--谁应该被责备?对所有相关方的后果是什么?而如果我们假设透明度是一个问题,那么我们如何评价正义?

分析人工智能计算在我们的生态系统中的影响,在最近的过去可能不是那么容易,但全球芯片危机和对加密货币挖矿大量使用资源的越来越多的批评,使我们能够得出一个非常明确的平行。AI建模的计算成本很高。 处理更多的数据需要更多的资源,更多的能源--我们无法逃避这一点。许多人工智能工作负载是在云上运行的,但云数据中心也是巨大的能源消费者,虽然主要的云供应商已经承诺达到碳零,但他们还没有达到,而且可能永远不会达到。 而这只是数据中心,它是一个相对容易解决的问题。 随着我们的智能手机越来越强大,我们需要更多的能源和更大的电池--更复杂、更耗费资源的应用程序助长了这种需求。正如Holly Cummins最近为WTF撰写的文章所证明的,我们已经到了谈论绿色软件工程的地步。无限的清洁能源仍然是一个乌托邦。

每天

给我们的手机充电两次、三次,只是为了让我们继续使用我们非常昂贵的数据处理应用程序(无论是否由人工智能驱动),这有多大的道德意义?

然后我们还有不那么明显的方面,比如与人类心理有关的方面:我们已经知道,数字成瘾是一种真实的状况。那么--我们应该期待数字成瘾者的数量会因为人工智能在定向广告中的使用而发生多大的变化,比如说?像尼尔-埃亚尔(Nir Eyal)等人所倡导的那样,设计使用人工智能和心理学的产品,故意试图勾引消费者,这是否符合道德? 而一旦已经是新的数字约会模式变得由人工智能驱动,我们与其他人的关系又会如何?委托我们的推理能在多大程度上影响我们生活的其他部分?如果你选择这样做--究竟谁在负责

从更高的层次看这些问题,我们会得出两个不同的结论。第一个--如前所述--是人工智能伦理学不仅仅是关于人工智能的偏见。当然,偏见是存在的,而且是一个问题,因为它影响到任何与决策有关的东西(特别是如果是分析性决策)。但是,如果我们分析所有受人工智能影响的领域,考虑什么是对的或错的,仍然有许多问题需要回答和解决。

第二个问题--正如Fallah-Seghrouchni教授所提出的那样

Fallah-Seghrouchni提出的第二个问题是,我们需要将伦理学看作是对行为的系统研究,其基础是一个由价值观、独立原则和行动组成的全球和不断发展的框架。没有这一点,我们就不能以负责任的方式提供答案,甚至不知道我们是否可以首先采用人工智能驱动的东西。换句话说,伦理学必须被视为评估、定位和使用人工智能驱动技术的动态基础。

在实践中,这意味着以道德的方式采用人工智能也意味着审视我们期望使用人工智能回答的每个问题,并考虑它如何影响其他一切。这甚至不是我们作为人类可以做到的--这里有一个关于道德和伦理的整体讨论,以及我们不同的、往往是由文化形成的对与错的概念。作为人类,我们做出决定,并通过我们的良心、社会规范或最终通过法律对其负责。但我们也知道,至少鉴于我们目前的技术水平,不可能将人类的推理过程完全复制成一个系统。因此,如果我们很难得出一个 "全局正确 "的结论,那么任何软件也不可能做到这一点。但这并不意味着我们不能开始解决这个问题。

AI偏见,或 "这是我的世界 "的问题

我们已经至少两次提到这个话题,所以让我们解决这个问题:当我们谈论AI时,有偏见是什么意思?让我们首先定义一下我们认为的 "偏见"。我们只要在谷歌上搜索这个词就能找到很多,但我特别喜欢这篇文章。作者列出了20种可能影响(或损害)我们认知过程的偏见--或者,如果你愿意,我们的决策过程。

我们可以立即将这些偏见中的几个与我们的背景联系起来。例如,让我们来看看 "可得性启发式",它涉及高估现有信息的重要性。这是经济学中一个典型的 "不要":如果你在使用一个纯粹的分析过程时给予所有数据同样的重要性,你最终会陷入一个 "聚类幻觉 "的偏差。这就是你发现相关关系的时候,比如迈阿密有多热取决于澳大利亚袋鼠的出生率。机器学习会变得更复杂一些,但原理是一样的:如果你(i)没有为你的问题选择合适的学习算法,(ii)输入太多的数据,你肯定会期望你的系统不会给你正确的答案。同样的类比可以用于文章中列出的很多其他偏见。

其他可能影响你的算法的偏见类型与 "选择性感知 "和 "刻板印象 "有关。你可能对 "这是吉娃娃还是松饼?"的问题很熟悉(顺便说一下,这是很真实的)。在机器学习中,选择性认知也可能来自于在 "正确的数据 "上使用学习算法--一组已经证实了你的分析的数据。使用成千上万张相同的两三个人的照片来训练面部识别算法,不会教算法识别任何与原始模型特征过于明显的面孔。这是一个明显的偏见。 但是,如果你的数据集是有偏见的,而你甚至不知道它呢?

很多关于自动化决策中的有偏见的数据集或算法问题的文章。留在面部识别算法上,其失败率因性别或种族等因素而大不相同。发生这种情况是因为用于训练算法的数据是有偏见的--所使用的大多数面孔都说是白人,或男性,或两者都是。所以--如果你的软件不能识别一个人,而这个失败(i)可以追溯到一个有偏见的数据集和(ii)对一个或多个个人造成其他影响(精神痛苦,经济损失)--谁负责,应该有什么后果?如果没有法律来规范数据提供者(很可能是一个为软件开发者提供服务的不同公司),那么责任链在哪里停止?

当然,还有很多其他类型的偏见需要考虑。如果硬编码的推理是基于文化/地方规范或规则(例如,不同国家的法定饮酒年龄),那么算法可能是有偏见的。我们已经知道,要做到真正的道德是不可能的(除非你真的解决了整个人类推理作为机器人的问题,专利申请中)。但作为开发者、工程师、经理或高管,你可能已经到了真正的问题:我们可以衡量我们的软件有多道德吗?

了解道德规则

有很多与人工智能道德相关的研究,从如何实施道德原则到人工智能的实际道德准则。奇怪的是,在这种情况下,阿西莫夫的上述三大法则并不是道德准则--事实上,它们甚至可能被认为是不道德的:复杂的道德问题其实并没有简单的是或否的答案。三大法则经常被用来传递一种信任的情绪--只要机器人遵循这些法则,就可以相信它们不会伤害任何人类。但这是一个安全问题--遵循三大法则并不意味着所有的决定本质上是好的或坏的。

为人工智能建立道德准则是很难的。去年,人工智能伦理学研究员Thilo Hagendorff发表了一篇人工智能系统开发中使用的准则的全面评估。在这篇论文中,Hagendorff比较了目前使用的22个不同的指导方针,研究了伦理原则在人工智能系统中的实施程度(顺便说一下,作者还研究了这些指导方针的作者中存在的偏见)。结论是直截了当的。人工智能伦理在很多情况下是失败的,主要是由于缺乏一个强化机制:

"在实践中,人工智能伦理经常被认为是不相干的,是技术问题的剩余或某种 "附加",是一个没有约束力的框架,是由技术界的 "外部 "机构强加的。分散的责任与对长期或更广泛的社会技术后果的不了解相结合,导致软件开发者缺乏责任感或对其工作的道德意义的看法。"

作者还指出,这些考虑对人工智能伦理有两个后果(转述)。

i.在人工智能和机器学习领域,需要更强烈地关注技术细节,以缩小伦理学和技术话语之间的差距
。人工智能伦理学应该从对纯技术现象的描述转向更强烈地关注社会和人格相关方面。然后,人工智能伦理学较少涉及人工智能本身,而更多地涉及偏离或远离有问题的行动常规的方式,发现知识的盲点,以及获得个人的自我责任。

如果你认为这两个后果有些矛盾,你是对的。为了实际衡量和了解你的系统有多道德,你需要找到一种方法,在技术上实现抽象的价值观。但要做到这一点,你需要了解在你的人工智能驱动的系统中真正发生了什么(我不会在这里讨论这个问题,但只要知道 "可解释的人工智能 "是一个大的研究趋势就足够了,这是有原因的)。同时,你越是专注于抽象的价值,你就越是与技术部分保持距离。虽然他没有解释如何解决这个困境,但哈根多夫承认 "在两种方法之间找到平衡 "是人工智能伦理学的一个挑战。

当然,这把我们引向当前的实际问题:如果我们想知道我们的人工智能系统是否符合伦理(或者至少是如何符合伦理),我们需要遵守一套准则--但也要明白它们并不是(可能在一段时间内也不会是)包罗万象。

一种平衡需要实现,认识到这一点本身就是非常困难的第一步。

新的浪漫的电子人

到目前为止,我们所知道的是:(1)人工智能的伦理涉及整个宇宙的考虑和问题,以及(2)无论我们选择解决哪一方面的问题,这可能只是冰山一角。另外,虽然很庞大,但我们还是只从系统的角度看问题,以及人工智能的直接应用/实施如何影响我们。你可能会觉得这是一条单行道,就像 "软件对我们人类的影响"--但不幸的是,情况并非如此。

我们已经明白,人类的心理会受到AI的影响。这种影响可以是直接的,也可以是间接的。直接的影响可以通过电子学习系统在你连续做错第三个问题时的反应来体现:看到同样的 "你错了 "的信息会让人失去动力。间接的影响来自于约会应用程序中使用的人工智能驱动的算法,例如(正如我们上面讨论的)。

然而,我们与人工智能驱动的系统的关系--互动本身--也可以被认为是道德的或不道德的,这取决于我们考虑到哪些抽象的方面。这意味着人工智能的体验要接受道德分析--遵循所有的准则,如果你的系统没有以道德的方式与用户互动,你仍然可能有问题,反之亦然。对于约会应用程序,如果你足够了解用户输入的参数来 "操纵游戏",这样做可以吗?再回到责任问题上--如果你的行为产生了应受谴责的结果,那么人工智能在多大程度上也应该受到指责?或者,换句话说:如果人工智能容易受到不道德的互动影响,它是否不道德?这其实是一个老生常谈的问题,如果你考虑到每一场涉及 "使用条款 "的司法斗争--但问题仍然存在。

而那些无法使用智能手机、高速互联网或任何现代通信技术的人呢?如果我们的行为因人工智能的使用而改变,这些人现在是被抛弃的人吗?如果我们的软件不处理这样的情况,是否符合道德?如果我们推动我们的新方式成为 "新的默认",我们(被人工智能暴露和改变)是道德的吗?

事实不会因为它们被忽视而不存在

在这一点上,你可能会感到害怕,甚至害怕接近人工智能。请--不要这样。"有道德的人工智能 "比说明孤立的问题要大得多、多得多。我们没有一个完美的解决方案。这个话题很深刻,问题很多,对我们社会的影响也很巨大。不过,我们不需要放逐一切人工智能,好像我们处于一个技术黑暗时代。然而,我们确实需要了解,"人工智能伦理 "不仅仅是一个炒作的营销术语,或者是新技术版本的邻里友好 "嘿,我们回收"。

在我们开始购买和使用人工智能驱动的系统(或自己建造它们),只是因为 "它们是未来 "之前我们需要了解很多事情--包括所涉及的道德。我们正在谈论的是影响我们如何思考、决定以及--最终--生活的东西。后果、责任、问责都是包装的一部分。这不应该是可怕的,但它并不改变讨论已经存在的事实。所以,让我问你:你的人工智能有多大的道德性?

WTF_ethics_ebook.png

猜你喜欢

转载自blog.csdn.net/community_717/article/details/129631482