人工智能与我们的世界

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_35082030/article/details/84584826

现在人们讨论到人工智能,就是会觉得更多的是人工,更少的是智能。是的,目前的人工智能更多的是人工,从写规则到标注数据库,构建知识图谱等,都需要大量的人工参与。但是,从历史上看,我们在发展人工智能的过程中,从写规则到统计学习,再到现在的深度学习,也是极力想让机器自己拥有更多的智能,更少的人工参与进来。

其实,目前人工智能中所谓的“人工”,还是想把人的“智能”显式的表现出来让机器学习的一种途径。现实世界中有着大量的信息,我们做出的种种行为,有一部分能力是来源于历史,这些能力存载在我们的DNA里。更多的时候,我们对于自己行为的决策,是来源于外部的人工监督者的教授。从婴儿时的父母,小学时的老师以及后来的各种参考用书的答案。我们之所以学习到了知识并能够熟练运用,不仅仅是有大量的人工为我们整理系统的知识,还有着大量的人工为我们在学习过程中纠正。如果没有那些参考用书和试卷的参考答案,我们学习知识的速度会减慢很多,更不用说学习正确的知识。而到了我们成熟以后,我们自己内心已经有了一些这个世界的公理,当我们再遇到新的问题时,我们会看看我们做的行为有没有违反这些公理,没有我们就可以去做。世界上大部分的事情,没有对错之分,尤其是成年以后步入社会,因为到了那时候,我们就彻底的没有外部的监督存在,就像是在测试模型一样,即使我们可以再学习,但是那时候的学习成本也是自己的试错成本。

人工智能也是一样,目前的人工智能既没有历史的积淀(先验知识),也没有成长的过程(监督训练),如何能够发展出智能?因此,人工智能不仅仅指代人工创造的智能,更多的,也是说明智能的创造离不开人工。如果没有人工辅助,不用说人工智能,就算是人类自己,在大量的无监督的信息世界里,也不可能成长为成人,具有成人的思想和行为,一些从小就在狼群中生存的狼人就是一个例子。

我们研究人工智能,一方面是想寻求一种生产力,一种可以自我学习和生产的机器。另一方面,是去探索如何发展出智能的道路。我想人工智能最大的优势,就是在于,当我们成功培养出一个优异的人工智能体时,我们可以不断的使用、复制和改进他。而培养出一名优秀的人才,就很难让他为整个社会不断的做出贡献。目前的绝艺A,B,C正服务于我们广大的围棋棋友,每个人都可以得到围棋顶尖名师的指导。我并不认为培养一名绝艺所耗费的资源比培养一名国际顶尖棋手要多,尽管人类的潜能时无限的。最终之时,也是想培养出我们的伙伴,或者是引领我们的人。这完全是人类骨子里最根本的东西,害怕孤独与渴望强者。

《机智过人》的栏目里,有着许多我们可以看到的人工智能的表现情况,也尽可能的会去模拟图灵测试。严格来看,我们认为已经通过了图灵测试的一小部分人工智能仍然是弱人工智能。但是我们仍然惊讶于它的表现,例如最令人惊艳的莫过于“鹿班”设计的海报可以通过现场观众的检验。更多的,仍然是上一时代,数字化世界的产物,在垂直领域,辅助人类的活动,从广义上讲,还算和人工智能有关系。以目前进度来看,人工智能在许多方面已经慢慢渗透到我们的生活中,但是由于自身发展的限制,还没有真正融入到人类社会中去。

自动驾驶恐怕是人工智能体现出其智能的重要的落地场景之一,目前以谷歌、百度为首的自动驾驶汽车其实部分已经能够实现。考虑到很多伦理道德问题,我们仍然希望的是自动驾驶汽车是辅助驾驶,只有在特定场景(如泊车、缓行),或者全权授权(路况简单且易控制)的情况下,我们才能够使用自动驾驶,其他情况下,辅助驾驶可能更具有现实意义。目前自动驾驶汽车还并没有处理好发生事故时的处理方法的问题。这个问题会比较大,我们将会在以后的时间单独来讨论。

人工智能法官也是目前的一个争论热点,其焦点在于人工智能法官能够带来什么效益。我们一直设想人工智能法官就能够自动化判断所有的案件,并且可以做到公平、公正、正义等,从而避免人类的偏见、疲劳或知识陈旧等缺点。在法律判决上,我们希望的是人和人工智能能够协同合作。如果全部听信人工智能而忽略了人类的意见,例如人工智能法官判决死刑,是不是就要立即执行?尤其是如果它使用了我们深度学习的模式,它甚至连判死刑的理由都不告诉被告,这更像是恶魔,一种不可违背的命运。而案件若先由人工智能审理,如果对结果不服,那么再由人类法官来介入的情况呢。这种模式下,最差的结果是,人工智能法官的审理毫无意义,因为无论人工智能法官做出什么样的判断,人类出于对于人工智能的不信任,百分之一百会提出上诉。最好的结果也恐怕是纺织业的一个仿版,对于案件小、责任轻的案件,会由人工智能法官处理,相应的,其费用也会显著降低。而如果是重大案件,那么交由人类法官处理,人工智能提供基本的审判意见。这和服装设计师在制式衣服上进行改进,从而获得更高的价格是一个道理。

我们希望人工智能能够成为独立的个体,具有学习能力。这样我们在于他们交互时,会更加自然与亲切。最近看到的小爱同学已经可以召唤小冰了,这是一个有益的尝试。也是人工智能体互相交互的一个开端。目前还尚未做到小爱同学和小冰的自然交流,但是至少已经具有了一定的交互。相信在不久的将来,将会有越来越多的人工智能体加入人工智能的世界。这使得人与人工智能世界不再是一个个单一的个体反馈,而是从每一个与人类世界交互的人工智能“大使”获得数字信息,再把这些信息通过人工智能体之间的自动交互,传达到人工智能世界里。人工智能的世界已经初具雏形,而人工智能世界与人类世界的界限在未来也会更加模糊。

在《生命3.0》中作者对于人工智能的在各个方面如法律、军事、政治上的担忧,都是人为人工智能会没有人类灵活变通。例子如古巴导弹危机和1983年的核袭击事件。但事实上,如果真的采用了人工智能,那么首先人工智能要比人类更低的犯错误率,以及更高的置信度才行。而且,这些错误,并不是决策错误,而是被决策采用的外部信息源的错误。这也正是为什么,我们都会认为人更加精明,因为人可以在错误的基础上做出错误的行为,从而把最终结果回归到正确上来。

不可否认,人工智能越来越深入我们的生活之中,无论是在社会中,还是在个人生活中。它在衣食住行等各方面不断的提升着我们的生活质量。但是,我们有一个困惑,人工智能令我们惊讶和担忧的地方在哪里?是最终表现出来的结果,还是有着非凡的学习能力?或者两者都是?

猜你喜欢

转载自blog.csdn.net/qq_35082030/article/details/84584826