读《中国人工智能与 IJCAI 的 40 周年,还有哪些未曾对外诉说的故事?》

原文地址:

https://mbd.baidu.com/newspage/data/landingsuper?context=%7B%22nid%22%3A%22news_10186783044528966108%22%7D&n_type=0&p_from=1

----------------------------------------------------------------------------------------------

偶在网上看到这篇访谈类的报道,由于是自己所在研究的领域所以关注了一下,感触颇深,并摘录了其文章中的一些比较赞同的观点。

原文部分内容:

外行人或者对人工智能不是非常熟悉的人,会对深度学习寄予过高的期望,这是潜藏了很多风险的事情。而这部分人之所以抱有过高期望,就在于他们没有意识到目前的深度学习还只能应用在非常有限的场合中,也就是说它只能在符合 5 个条件的场合中能够有好的表现,缺少任何一个条件,在实现程度上都会大打折扣。

这 5 个条件包括:

第一,必须得有丰富的数据;

第二,完全信息;

第三,确定性;

第四,静态与结构化环境;

第五,有限的领域和单一的任务。

ps:   1.  看来小样本数据的研究可能还是比较有前途,在数据量较小的应用环境中如何使机器学习的算法仍然能work是一个不错的研究。

       2.  完全信息这一点不是很理解,这个是不是说学习的数据集现在一般都是完全知道所有instance的所有属性信息,如果部分的instance的属性信息不完全或者说是丢失了部分信息,可能指的是这种情况吧。

       3.   确定性,这个也不是很理解,以我的学习积累所能想得到的就是模糊学习之类的东西了,也就是说现实问题中很多数据的归属并不是是非问题;不确定性,是不是在指数据分布的不确定性呢?这个确定性不知道该具体怎么解释,但是直观感觉应该是和实际问题比较贴近的。

        4.   静态,这个可能是说现在的机器学习问题一般是指固定的数据集,对比的就是那些在线学习之类的吧,也可能是强化学习那种的数据需要不断的和环境交互获得,也可能是指那种像终生学习的那样不间断的学习。结构化,可能是说现在的ML所学习的数据集都是结构化的,这个也是不太清楚具体什么意思。

         5.   这个单一任务估计就是现在比较火的研究方向,多任务学习,多模型学习,多模态学习,迁移学习等吧。

而目前深度学习由于某个条件的缺失而产生问题的情况也非常普遍,

包括:首先是人脸识别、语音识别一旦存在干扰性能就会显著下降

其次,基于深度学习的系统具有的不可解释性便是系统存在的致命缺陷之一

另外,深度学习还只是人工智能的冰山一角,人工智能还有很多其他更为重要的问题需要解决

基于此,张钹院士认为结合清华大学人工智能研究院提出的口号阐释了自身对于人工智能未来发展趋势的看法:

第一,建立可解释性与鲁棒的人工智能理论和方法;

第二,打造安全、可靠、可信的人工智能技术;

第三,开创创新的人工智能应用。

「只有实现这三点,人工智能才能得到进一步的发展。」

ps:   开创新的研究方向或者新的研究领域,或者落地一些新的人工智能的应用,这种事情估计和我辈无关了吧,这个可能需要大量的资源投入和个人的机遇及天分,这个不想了。建立可解释性和鲁棒性这个应该是很有必要的,  不可解释可能是机器学习本身就存在的问题,这可能不仅仅是现在的深度学习所独有的问题,不过DL的问题确实严重,好像就没啥解释性,上去就是各种模型揉在一起,各种调参数,各种修模型,总觉得不太靠谱,感觉像是在算命的调调,只不过是有用的算命罢了。鲁棒性不解决,可能有些机器学习的应用会一直都难以成熟落地。

最后,张钹院士还谈到了当前中国科研工作者所存在的问题,他认为其最大的缺点便是喜欢跟风随大流。「目前我国人工智能的研究主要集中于深度学习,而对知识表示、规划、推理和不确定处理等 AI 其他领域缺乏重视。例如去年的 IJCAI 上,关于深度学习的论文只占全部论文的 1/3,其中 70 % 的论文作者是中国人;而另外 2/ 3 的关于知识表示、规划、推理等的论文,却基本上没有来自中国作者的。

ps:    这个感触确实大家都有跟风的嫌疑。

猜你喜欢

转载自www.cnblogs.com/devilmaycry812839668/p/10962245.html