为什么自动驾驶不能随便写个人工规则就好

前一段时间,几位国内头部厂商号称自动驾驶专家的人物,表示自动驾驶其实很好解决,只要把物体在哪儿搞清楚,无非就是加速和方向盘而已。我就不说这些企业是什么了,总之要命的别做这种车。

为什么:原因很简单,因为对应的前置任务是有限度的,并且难以提高。以Object Tracking为例,在简单的地铁中,旷世通过各种骚操作做到了80%。看起来还可以,但别忘了,公路上的物体比这个复杂的多,所以我要拍脑袋,那正常达到60%就不错了。

打个不恰当的比方,我从a地走到b地,如果我眼神没问题,大部分都可以走,但如果我眼神有问题呢?假如说我接近一半的东西都看不到,那我估计就只能以每分钟一步的方式走了。这不是自动驾驶,这是牛车。

所以大部分时候,RL训练还是一个主流。但RL也有自己的问题。

  1. Generalization Gap。因为收集自动驾驶的实际数据太难了,所以不能在公路上训练,往往是在赛车游戏中。但是赛车游戏比起实际简单太多。所以如果能在实际训练,安全的收集样本,然后在利用小样本(RL臭名昭著的sample inefficient)。
  2. 置信度问题。神经网络本身一般都对自己判断高度自信,Bayesian RL在这方面能起一些作用。但本身来说还是有很大需要进步的。

虽然一群人说RL各种各样问题,但是实际上,如果你要是觉得你还能用规则,你把object tracking这些东西倒数第二层拿出来,然后你自己在这里写个规则。你能把那些东西指啥说明白都算你厉害。

所以说,反智的人就不要做AI。谷歌在这方面做了这么多年,也一直被诟病。我们反倒觉得自己偏偏能抄个捷径,一天赶超谷歌。这种把全世界最聪明的一群人当傻子的心态还是非常具有人类学研究意义的。

猜你喜欢

转载自blog.csdn.net/weixin_42812353/article/details/111878582