浅谈AI模型的可解释性、安全性与正义性(下)

cd8f2ab889ecbfb778483c305dae3c4b.gif

前言

上两篇讨论了模型的可解释性和安全性,也给出了些解决方案,相对比较硬核,这一篇聊一下人工智能的正义性,虽然通俗很多,但却是最难的部分...

c7dc959b1a25020e3b967253599c06d8.png

正义性

AI不作恶

Don't Be Evil曾是Google提出的口号,不管他自己做没做到,至少指明了一个方向。技术即使不能为善,至少不能为恶。但现实中的选择,总陷入一个"不好"和一个“更不好"之间的困境,无论怎么选都很难。

8e9e64fce3ed3af4792a0e70fadfaf98.png

人工智能的原则

之前有个TED的讲座里,提到了AI的几大原则:

  1. 对社会有益。

  2. 避免制造或强化不公平的偏见。

  3. 为安全而构建和测试。

  4. 对人负责。

  5. 纳入隐私设计原则。

  6. 坚持科学卓越的高标准。

  7. 可用于符合这些原则的用途。

不应该使用AI的场合:

  1. 造成或可能造成整体伤害的技术。

  2. 主要目的或实施是造成或直接促进对人的伤害的武器或其他技术。

  3. 收集或使用违反国际公认规范的监视信息的技术。

  4. 其目的违反广泛接受的国际法和人权原则的技术。

数据集不平衡

曾经 PULSE 算法将一张低质量的巴拉克•奥巴马(Barack Obama)照片进行了高倍放大,从而输出了一张高分辨率的白人照片。这种偏差问题在机器学习中非常普遍,因为人脸识别算法在非白人和女性面孔上的数据收集较少。AI工程师很容易理解这仅仅是数据集不平衡的因素,非主观歧视,但作者还是被大众骂上了热搜。

d5c3ed33404b0fcca1493158aeeb1ac7.png

好在,后续StyleGAN的数据集中加入了大量非洲裔和亚裔的样本,这类乌龙事件未来应该会少很多。

大数据杀熟

  • 同一时间,同一起点,同一目的地,不同手机使用打车软件跳出的价格却不同;

  • 消费频率越高的老顾客,在网上所看到的相同产品或服务的定价,反而要高于消费频率低或从未消费过的新顾客;

  • 买了外卖平台的会员,看起来点外卖能省不少钱,但实际上所谓的“优惠”比非会员所能享受到的反而要少;

……

c53dbb7f28fa602ef875cb4ee303d679.png

相对其他而言,大数据杀熟是真正的“恶”,它侵害了消费者的知情权、公平交易权等权益。

平台可以有各种优惠券,促销活动,或是会员折扣,但同样的商品和服务,同一时刻,高净值顾客的就更贵,买了会员的人更吃亏就过分了。

89e26f2e217228fdd1dfd195a2ffad70.png

做过电商的朋友应该了解,一个产品的搜索功能背后的系统可能非常复杂,加上促销券的规则和种类也很多,商家每隔段时间就换一种促销活动,所以要取证到真正的大数据杀熟其实非常的难

消费者唯一能做的就是尽量有多重身份,比如多个手机号,多个账户,多在不同平台比价,避免隐私泄露被用户画像(哎,这不是增加数据挖掘的工作难度了...)

关键字过滤的困境

推荐系统最大的功能是建立用户的兴趣与事物之间的联系,通过对相同兴趣或事物的协同过滤,来预测用户感兴趣的内容。这基于一种假设,兴趣相同的人可能会喜欢同一个内容,同一个人会喜欢相似的内容。

提取事物特征的方式有很多种,最常见的还是基于标签。如果想做一个知识问答或者兴趣标签聚合类的推荐系统,那网站上线的最后一步一定是敏感词审核。产品符合当地法律法规本身无可厚非,这里聊一下从技术上来实现完全合规的难度。

看一下最近屡被处罚和下架的豆瓣,这种基于 UGC 的自定义标签,究竟该怎么审核?

88689bd63ffd2a027f0dbbd0de8c4e2d.png

一个简单粗暴的想法是敏感词过滤,暂且不论,直接屏蔽特定用户标签对一个推荐系统的影响,先只谈技术可行性。

把这类红色电影的标签做一次过滤,想一下怎么设计关键字。屏蔽恐怖,就用虚伪;屏蔽虚伪,就用黑色电影...

1d59e57c3e212095667895976c78d66f.png

最终的结果就是屏蔽所有的贬义词,那等同于单独设立一个红色电影的类别,这类电影不允许负面评价。那么问题来了,怎么定义红色电影

官方没有给出一个明确的电影分类之前,带一丁点爱国的题材,算不算呢?在文艺创作中,爱国是主旋律,也是正能量,肯定不能一刀切地关闭所有评论。那审核尺度的把握,短期内只能依赖人工介入的方式了。

人工全检测豆瓣的全网新增内容,这工作量不是一般的大,忽然就对漫长的您的评论排队审核中...多了一份理解,也对各大平台,宁可错杀也不放过的关键字审核有了一丝的同情。

未来还能期待多累积一些被人工过滤的样本,以魔法打败魔法,再训练一个审核系统出来。虽然难度会远高于鉴黄系统,毕竟谐音梗、字母缩写和互联网黑话,以及政治问题零容忍的特点,生产环境不能出现一个负样本,这些都是巨大的挑战。

信息茧房

推荐系统的另一个困境是容易让用户陷入封闭的信息圈中不停的给予满足,而完全不在乎信息的价值,甚至是真实性。最终真相是什么并不重要,人们更愿意相信自己脑中的那个世界。

当家庭群里充斥着“抛开剂量谈毒性的各类养生文”,女生都在谈论疫情影响,男生都在谈论俄乌局势,游戏圈里各种老头环,科技圈里到处的 SOTA...  而由于价值观,宗教信仰和零和博弈思维,各个价值体系的摩擦,冲突直至战争都无法调和。

这方面,抖音、头条、小红书的个性化推荐和豆瓣的饭圈文化最为严重。社交媒体为了取悦用户,他们猜测用户会喜欢听到的信息,但无意中将他们所知道的信息隔离到自己的过滤气泡Fliter bubble 中。

有一个社会实验很好的表明了这种现象,研究人员设计了一个利用社交机器人分析过滤气泡的实验,他们在微博上部署了 128 个机器人,每个机器人订阅一个特定的主题(娱乐或科技)并至少运行了两个月,总共记录了大约 130 万条推送给这些机器人的消息。

a72e40838a3a0b0b929936e36996058d.png

这些机器人有2或3个具有相同偏好的初始追随者,根据三元闭合,即朋友的朋友也是朋友;同质化,即相似的人有更高的机会建立联系,来扩展其社交网络。

娱乐话题包括名人八卦、时尚、电影、电视剧、音乐等,科技话题涉及自然、科学理论、工程、技术进步、数码产品、互联网等。与其他话题相比,这两个话题可以在微博中自由传播,内容重叠度低,具有不同的用户特征(性别、年龄、文化程度等)

对于每个主题,设计了两个实验处理:主题组和随机组。在主题组中,机器人选择首选内容来扩展其社交网络,但在随机组中,机器人在所有暴露内容中随机选择新的信息源,而不考虑首选主题。

因此,就有四个实验机器人组:主题娱乐组(EG)、主题科技组(STG)、随机娱乐组(REG)和随机科技组(RSTG)。每个处理包含 2018 年 3 月 13 日至 9 月 28 日期间在微博上运行的 30-34 个机器人。

657a066811b43663d6e570b371d4078f.png

通过对比信息,喜欢娱乐的机器人更容易困在信息茧房中,喜欢科技的机器人则更相信权威,两者区别在于科技类的流通性更强些,“大V”会对圈外输出信息(也就更多接受外界的考验);而娱乐网络里的消息很难流通出去,类似饭圈里的“粉头”,一旦有谣言就坚信谣言,与圈外人员之间几乎没有交互。

34431d2aa26a376ec7c0f56e05ece4fd.png

两种群体同样都出现了“极化”的现象,无论是“大V”还是“粉头”,他们的话语决定了舆论的走向,这就是吐出的丝,而我们都在

更详细的论文可以参考以下链接

https://royalsocietypublishing.org/doi/10.1098/rsos.190868

在互联网时代,不掐架,怎么制造流量呢?没有了流量,怎么变现,拿什么支撑起庞大的商业模型。所以这些KOL的骂战,才是他们真正的财富密码。

bee4c4e5526b54da43ea1fc8d6eb1d51.png

好在,"个性化推荐"功能可以由用户来决定了。截至3月15日,抖音、今日头条、微信、淘宝、百度、大众点评、微博、小红书等APP均已上线算法关闭键,允许用户在后台一键关闭“个性化推荐”。

bcab70bb9c1378bd7518bddec8420059.png

但我打开抖音是为了去学习的么?不,是去娱乐的,是去消费的,是去寻找共鸣的!

用户如果仅用一种思维方式进行分析和思考,只会得到一个狭隘的结果。这是一种宿命,让睿智的更睿智,让愚蠢的更愚蠢。即便是专家某种程度上来看,也都是偏执狂,因为唯有专注才能精通。

只有个人不停地走出舒适圈,并小心适配好当下所处的领域和场景,才能真正的避免“作茧自缚”。

未来任重道远

当你追求“对不对”的时候,我在追求"真不真",曾天真的以为“真善美”,这TMD不是一回事儿么?

来看个例子:

如果一个数据集反映了现实状况,但表现形式是残酷的,甚至是“恶”的,那么我们是否应该对数据集进行裁剪,用来修正最终的模型输出?前者是忠于真相,后者是技术向善.... 这是个两难的抉择。

c266d4fe0d3eaacad950b0589d433749.png

再举一个金融预测的场景,2022年前的模型打死也不会“训练”到乌克兰可以把俄罗斯人的财产清零,也不会理解俄罗斯的将私人企业”国有化“,永久中立国瑞士冻结客户资产,甚至facebook公开允许对俄罗斯人暴力和辱骂,还可以对虐杀平民的亚速营进行赞扬???

那这些样本需不需要让模型学习?

不学,这种“黑天鹅”样本实实在在是巨大的金融风险;学了,那未来的通用AI没准就能发展成下一个灭霸

好在,科学家和工程师大多是爱好和平的反战人士。

  • 诸如GPT3的训练样本中去除了很多暴力、种族歧视和涉黄内容;

  • 之前曾介绍过的glide-text2im模型也去除了宗教场所、纳粹符号和国旗类的训练图片;

  • 还有当年微软那个聊天机器人TayTweets,从人类太酷了满嘴纳粹,不到24小时就被永久下线...

e69da70084c54cb4029ea4f226ac13bc.png

就像我们的祖先发明火药主要是为了欣赏烟花,无人机最初也只是用来救火和灌溉。

那么又问题来了,当它们变成巡航导弹和杀人机器的时候,又由谁来保护我们...

这似乎不是科学领域能解决的,进入了哲学范畴就不是所有问题都有解决方案了。我们普通人唯一能做的,只是在自己的领域尽力而为,无问西东。

51672807d6a13adc64aaaec396a27de7.gif

猜你喜欢

转载自blog.csdn.net/weixin_47479625/article/details/123564743
今日推荐