深度学习瓶颈

1. 需要大量样本

虽然有一些方法可以减少对数据的依赖,比如迁移学习、少样本学习、无监督学习和弱监督学习。但是到目前为止,它们的性能还没法与监督学习相比。

2. 过度拟合基准数据

3. 对图像变化过度敏感

对于任何一个目标对象,数据集中只有有限数量的场景。在实际的应用中,神经网络会明显偏向这些场景。

“组合爆炸”

就说视觉领域,真实世界的图像,从组合学观点来看太大量了。任何一个数据集,不管多大,都很难表达出现实的复杂程度。

“解决之道”

靠组合模型培养泛化能力,用组合数据测试潜在的故障。

发布了33 篇原创文章 · 获赞 0 · 访问量 610

猜你喜欢

转载自blog.csdn.net/qq_28133013/article/details/104297514
今日推荐