可解释性学习未来的发展方向是什么

[ValseWebinar] 可解释性AI专题
https://www.bilibili.com/video/BV1oJ411k7mf?from=search&seid=6708423743269033

可解释性学习未来的发展方向是什么?

鲁棒性方面:如何增强深度神经网络的鲁棒性?使得在医疗、自动驾驶、军事战争等重要的方面发挥作用。
可解释性分为两大类:
1.面向模型开发设计的研究人员,对模型的各个层进行解释,以此来设计鲁棒性更好的model;
2.面向应用model的各类从业人员,比如医生、金融师,他们并不是很懂深度学习,但是他们需要理解深度学习学出来的结果,知道深度学习为什么做出这样的决策。
(目前这两类工作的研究也才刚刚开始,未来需要做大量的研究)

可解释性是不是只针对DNN?传统模型需不需要可解释性?
传统模型的提出就是基于严谨的数学上或者几何上的方法,其原理是非常清楚的。
深度学习发展过程中,我们并不是非常清楚深度学习的原理,在很多实际问题中,无论是基于经验还是基于各种各样的试错过程,我们会构造出非常work的网络结构,但是我们并不能说清楚这个网络为什么会work。
现在发展到这个阶段,我们需要弄清楚网络的原理,给出可解释性,以至于可以更有针对性的提升网络模型的性能。
未来的方向:目前还是对已有的网络进行分析,未来有可能针对一个任务或者问题,根据可解释的原理来设计一个针对问题,结合具体应用的的网络模型。

可解释对于深度学习的意义和研究目标是什么?

研究可解释性的意义就在于可以针对性地提升model的性能。

现在部分学者认为可解释性在学习中不是必要条件,大家怎么看?

神经网络就是个很好用的工具,觉得它有用,可解释性就不是必要条件;如果想要解决一个特定的问题,那就需要从数学上或者物理规律上对问题建模,这就要求必须要有可解释性。

可解释性学习如何来进行科学的度量?解释结果的客观性与可靠性怎么评价?

周博磊

可解释性的应用场景有哪些?

无人驾驶、交通、金融、安全
医疗:判断人有病的可能性
法律:判断人犯罪的可能性
军事:accuracy不能达到100%的情况下,给战争指挥官一定的可解释依据,以便于更快地调整作战战略。

可解释性学习的最大挑战是什么?

如何把人的知识加结合到可解释?

猜你喜欢

转载自blog.csdn.net/weixin_38072029/article/details/112692815