BLOOM模型结构详解

《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》

论文地址: https://arxiv.org/pdf/2211.05100.pdf

代码地址: transformers库-modeling_bloom.py

BigScience 官方提供的代码链接并没有找到完整的模型实现代码,只有提示说模型结构代码是在 Megatron 的 GPT-2 代码基础上修改的。

BLOOM模型结构

bloom_architecture

BLOOM 的完整架构图

BLOOM 模型也是 Decoder-only 架构,但和原始 transformer-decoder 结构有所区别,上图红色框框出来的是 两个优化地方,具体来说:

  1. ALiBi Positional Embeddings。ALiBi 位置嵌入不是向嵌入层添加位置信息,而是根据键和查询的距离直接衰减注意力分数。尽管作者最初的动机是其推断更长序列的能力,但后来发现即使在原始序列长度下,它也能带来更平滑的训练和更好的下

猜你喜欢

转载自blog.csdn.net/qq_20986663/article/details/130227263