照片还是照骗?人工智能正在改变人类世界观

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/duxinshuxiaobian/article/details/102757139

全文共2956字,预计学习时长6分钟

人工智能正通过扭曲人造的影像,改变着人们的认知水平以及人类与物质世界的关系。

图片来源:华盛顿邮报/Getty Images

今年年初,我和家人徒步来到苏格兰斯凯岛边陲的高低珊瑚海滩。我们本想一睹珊瑚形成的壮丽景观,就像谷歌搜索结果那样的一望无际。然而我们没能看到古朴的海滩和宝石绿色的海水,取而代之的是一带相当污浊的破碎珊瑚。仙女池也带给我同样的感受,清澈的池塘不过就是由多股小瀑布灌注而成。我曾经痴迷于探索这类地方,但出发前和家人上网看过的照片打破了我对于实景地的幻想。网络上的“景色”,使我在亲临实地之后产生一种虚幻感;就像自己重游儿时去过的地方,却发现它比记忆中的样子更加狭小,更加破旧。

网络世界里的信息,很大程度上影响了人们对世界的印象。随着智能手机的普及,数码影像在20世纪10年代初蓬勃发展;现在,Snapchat用户每天都会创造30亿件快照(snap),而在Instagram上每天会有35亿条推文被赞,其中很多图片都接受过滤镜编辑和强化。每个智能手机持有者都能产出增强的图片,这些增强效果在几年前只能通过摄影师或修图师之手实现。

然而,如此大规模应用相片处理技术,意味着人们对影像的使用,更多地是在系统化地扭曲世界,而不是在反映周围世界。摄影越来越多地代表了一种生活的理想化形式,但这种变化是有代价的。“虚假的图片会改变我们对于过去的看法,甚至影响我们未来的计划,”来自华威大学的心理学家兼影像和记忆领域专家Kim Wade博士说道,“强化图像的习惯可能改变我们对于过去的看法,并最终改变我们与现实的关系”。

虽然算法总会自动加强数字图像的饱和度和对比度,但机器学习的引进是一个逐步的变化。深度学习训练往往涉及数百万计的图像,这样它才能够使拍照手机识别拍摄场景,以决定图像需要具备什么样的特征。华为P30智能手机可以识别超过1500种场景, 并自动优化设置。假如手机侦测到了人像,就会磨皮,将背景虚化,并采用修饰人脸的光照。

最新一代智能手机还能应用高动态范围(HDR)。假如手机侦测到高对比度的场景(阴影过多,高光不足),它就会采集不同曝光率的连拍图像,将其组合成单张完美的图片。

人工智能正开始自主选择图片。谷歌Pixel Top Shot功能会在按下快门前后捕捉90个图像,并根据训练数据集的学习成果,选择它认为最好的一帧。尽管程序设计师常常不愿意透露他们用来构造图像的数据库,但最佳图片也许是最佳笑容的瞬间,或者是最经典的构图。

除此之外,还有滤镜和应用程序也能修饰事物,让一切看起来更加优雅或震撼。大部分手机自带标准滤镜,比如“鲜明”,“反差”和“黑白”,无数像Snapchat和FaceApp的应用程序还能提供磨皮、大眼和瘦脸等美颜功能。轻轻一点,就能以逼真的效果,让人像变老或年轻几十岁。

扫描二维码关注公众号,回复: 7623043 查看本文章

动态图片更容易处理。漫威《蚁人》展现出年轻化的Michael Douglas,Netflix剧集《女子监狱》则让演员在回忆中饰演少年时期的自己。Mark Zuckerberg, Barack Obama和Vladimir Putin的“深度换脸”(deepfake)早已广泛流传,技术复杂且效果真实。斯坦福大学还开发处理一款软件,可以像编辑文本一样轻松地修改人们在视频中所说的话。连外行人都能使用FaceApp一类软件对视频中的人物执行换脸操作——如果按照过去十年的势头发展下去——这种技术很快就会渗透到智能手机上。

但是,研究表明,不论人类如何神通广大、明察秋毫,还是极易轻信图片中他们看到的的内容。Wade表示,“研究表明,人们过度地依赖照片以回忆过去。人们倾向于高估自己鉴别虚假图片的能力,他们对图片持有偏见,在不确定图片真假的时候,宁愿相信它是真的。即使是经常给自己修图的人,也很难分辨图片的真假。”

持续暴露在夸张图片之下,会让生活变得沮丧,难以承受。加利福尼亚大学于2017年开展的一项研究显示,人们在社交媒体上花费的时间越长,看网友晒他们看似光鲜的生活,对自己生活的满意度就越低。在此基础上,研究详细考察了不切实际的审美标准给年轻女性带来的不良影响。令人吃惊的是,华威大学2016年的研究发现,比起未经标记的图片,包含不现实的审美标准、经过“处理”和“强化”的图片反而让观看图片的人更想改变自己的容貌。整容外科医生表示,希望通过整容手术更接近高度修图、厚重滤镜的自拍照的人增加了47%,这种情况被称作“Snapchat畸形”。

致力于解决新数字时代问题的荷兰艺术家Constant Dullaart表示,“工具[例如人工智能加强技术]导致的审美标准单一化是十分危险的”。他很关心数字处理导致单一化的议题,而且,这种性别歧视的审美观是由盈利公司促成的,后者依靠最大化参与度牟利。

“现实是一种建构。很多人正接受着一种令我感到压抑的建构”,Dullaart说。“这种自动化的审美强化了它。同质化的图像逐渐占据媒体。最让我不安的是,孩子们认为他们需要遵循这套审美标准、身体标准以及行为标准”。

诚然,影像总是主观的,但它塑造了我们对于周边世界的看法。共享的现实是一种重要的货币,它允许我们创造并交流意义。作为一种交流的媒介,假如影像变得不那么可靠,我们就失去了一部分意义。

“任何经过处理的图片内容都会削弱人们对于现实的理解”,Ethical Threats and Emotional Unintelligence in the Tech Industry一书的作者,兼技术意识中心(Centre for Technology Awareness,一家技术伦理顾问机构)首席执行官Katy Cook 如是说。“牵涉到政客或者世界大事的伪造图片不仅使人们在系统层面感到混乱,还严重地威胁到了民主。告诉人们不能相信眼见之物,这严重违反了人类的进化观;进化让视觉成为人类理解周边世界的主要机制。

“一旦这一基本功能向深度换脸或图像处理妥协,我们认同基本事实的能力将减弱,最终冲击社会凝聚力,”她还说道。

从相机销量的上涨,到女性网友在 #postpartumbody话题下分享自己的照片, 或者通过#effyourbeautystandards话题表达自己的见解,种种现象表明,人为制造的现实开始受到抵制。Celeste Barber等喜剧演员嘲讽了所谓“ins式的完美生活”,戏仿了精修的自拍照和名人照片。

目前,话题#nofilter在Instagram上已经包含超过2500万张图片,该话题热度上升说明越来越多的人开始意识到这一点,这也是Cook眼中改变人们认知的第一步。“在这种情况下,意识指的是我们自身的脆弱性——从深度换脸到各种怂恿我们改变自己样貌的软件,再到人们逐渐远离客观实在的事物(例如事实,地球的形状,人们的大腿围)。没有公式本身,但渴望改变,落实教育和躬身实践通常是后续步骤。但意识永远是第一位的”。

留言 点赞 关注

我们一起分享AI学习与发展的干货
欢迎关注全平台AI垂类自媒体 “读芯术”

(添加小编微信:dxsxbb,加入读者圈,一起讨论最新鲜的人工智能科技哦~)

猜你喜欢

转载自blog.csdn.net/duxinshuxiaobian/article/details/102757139