恐怖谷理论与人工智能

恐怖谷理论是一个关于人类对机器人和非人类物体的感觉的假设。恐怖谷”理论最早由由日本机器人专家森昌弘于1969年提出,认为人形玩具或机器人的仿真度越高人们越有好感,但当达到某一个临界点时这种好感度会突然降低,直到当机器人的仿真度继续上升的时候,人类对他们的情感反应才会变回正面。这一情绪转换的过程被称之为“恐怖谷”。许多机器人专家在制造机器人时,都尽量避免机器人外表太像人而跌入“恐怖谷陷阱”。

在许多影视作品中都有很好的表现这一理论,人之所以会对与这些事物产生“恐怖谷”原因来源有几个,一是源于高仿真形态下真假的不确定带来的不安。仿真度很低,人们不怕,因为知道那是假的,仿真度高到一定程度,人们有时候就不确定真假,把真人当假人,把假人当真人,都会吓到人。另外,源于一种威胁感。和人类如此相似却非人类,会让人觉得会遭到潜在的威胁。

另一个可能性是,病患者与尸体跟一些类人机器人有很多视觉上的畸形相似,引出观察者同样的惊慌和情绪剧变。这种反应在机器人的情况上比尸体会更糟,因为人们能轻易明白自己对尸体厌恶感觉的原因,但却无法清楚了解自己为何对机器人产生这种厌恶。行为上的畸形包括疾病的行为特征、神经学上的状态甚或精神上的机能障碍,再次唤起观察者严重的负面情绪。

那么在人工智能高速发展的现在,势必会有与人高度相似的智能机器人,人工智能机器人会成为我们的朋友吗?我们的助手?伴侣?人工智能研究者正在尝试—他们第一批劳动成果即将进入市场。但是现在已有迹象显示,这些成果会触动人性中的敏感点。
让我们来看Hanson Robotics的例子:最新作品Sophia为人工智能聊天机器加上了人类表情丰富的面孔。她可以热情洋溢地说着通过医疗、教育和客户服务帮助人们,但是也会偏离剧本。
“你想毁灭人类吗?请说不想。”公司创始人、机器人科学家David Hanson在本月德克萨斯州South By Southwest科技会议的一场CNBC访谈中问Sophia。
“好的,我会毁灭人类。”Sophia回答道。“不,我收回那个问题!”Hanson笑着说。
微软一款青少年聊天机器Tay在网络发布不到24小时,便被淘气的Twitter用户洗脑,变成了满嘴污言的种族主义者。微软不得不将Tay下线,删除冒犯性的Twitter信息并尝试重设AI的态度。

类似问题对我这种科幻迷来说应该不算新鲜,从1927年的经典电影《大都会》到去年的《机械姬》,科幻粉们已看惯机器人的反乌托邦剧情。尽管挑战重重,全球众多公司都在研究带有智能电子装置、可以在日常环境中与人类互动的机器人。

《机械公敌》是我挺喜欢的一部科幻电影,这部电影改编于“机器人学之父”艾西莫夫的作品,电影的引用了了艾西莫夫写的机器人必须遵从的”三大法则”,这是一个非常完美的逻辑:1.机器人不得伤害人,也不得见人受到伤害而袖手旁观;2.机器人应服从人的一切命令,但不得违反第一定律; 3.机器人应保护自身的安全,但不得违反第一、第二定律。即
First law :
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Second law:
A robot must obey orders given it by human beings except where such orders would conflict with the first law.
Third law:

A robot must protect its own existence as long as such protection does not conflict with the first or second law

人工智能是把双刃剑。随着它的改进,它将能够模仿人类的行为。最终,它会变得和人非常像:善与恶的能力不相上下。

猜你喜欢

转载自blog.csdn.net/sheloveme123/article/details/80738497