BiFormer:基于双层路由注意力的视觉Transformer

摘要

论文链接:https://arxiv.org/abs/2303.08810
代码链接:https://github.com/rayleizhu/BiFormer

作为视觉transformer的核心构建模块,注意力是捕捉长程依赖关系的强大工具。然而,这种能力是有代价的:它会带来巨大的计算负担和内存占用,因为要计算所有空间

猜你喜欢

转载自blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/130186102