再谈因果性与不确定性

听说耶鲁大学最新的研究与试验成果证明了:量子力学的不确定性实际也有规律可循,只是因为其速度太快,接近“普朗克尺度”,很难被感受到而已。先不论这个试验成果是否真的对量子力学基础理念有这么大的颠覆作用,这里想借机再讨论一下因果性与不确定性。

记得最早的一本大数据书籍,给人们带来了数据分析领域新的观点:大数据的根本特征是不遵循因果性。意思就是说,采用大数据思路解决问题,不需要考虑因果,可能用大数据得到的结论表面上看与输入或者其它因素并没有明显的、可理解的关系,但大数据这么说了,那就是这样,即:让大数据自己说。而当时这个思路的根基就是量子力学,因为有这么个“类似”的、成功的大理论,在人们心中自然增加了接受的砝码。可以说,近十几年以来,大数据说话,非因果律的思路占据了高端数据分析的哲学主流。

那么,具体来讲,大数据是怎么说话的呢?这又不得到提出人工智能AI。人们认为,AI就是大数据自己说话的核心手段。把一堆大数据放在那,让AI去跑,跑出来什么,很有可能是人们在现实中并没有发现、或者根据经验无法得到的结论与知识,从而大大促进人类生活与生产的进步。

上面量子力学的新试验,能不能推翻物理学的既有观点先不说,这里认为,多年的实践已经证明,仔细分析的话,把AI算法很多情况下的不可解释性,等同于量子力学界的“不确定性”哲学,认为数据分析的主流发展方向就应该如量子力学一样,走向无规律可循的、或者不追求规律探索,暴力计算让数据自己“说话”的方向,是不合适的。

从大数据中采用算法发现知识,其本质上,就是把人类难以或者无法发现的规律与因果,从数据中挖掘出来,其本质就是更全面、更广泛的因果发现,其本身也并不创造任何新的知识与现象。通俗点讲,因果与规律就在那,只是机器协助人们发现而已。而关于AI算法的不可解释性,其实也是人类逻辑表达的另一种形式:即需要借助数据确定参数的逻辑表达而已,各种AI模型本身还是逻辑计算的算法,其本身的发展目前还并没有脱出逻辑表达的范畴。长期的AI实践也正好证明:一个优秀的机器学习工作人员,如果要在现实中采用AI得到好的效果,最重要的是深度理解业务场景,选择与优化合适的模型,选取并组织合适的数据,从来没有一种可以成为通用基础平台的AI算法出现过,从目前的AI发展框架,以及现有的01计算机体系架构来看,也不会突破,除非是量子计算机或者生物计算机出现。简单来讲,AI是一种工程,AI从业者是一种典型的工匠,将其当成一种科学,甚至当成一种体系完整独立的工程体系,目前来看都是不合适的

因此,大数据从来都是确定性的因果律,没有所谓的不确定性,人们感觉到的不确定性发现,本质上是人类难以发现而已。

猜你喜欢

转载自blog.csdn.net/m0_53773302/article/details/123319955