字节跳动 transformer
时间: 2023-08-18 13:08:19 浏览: 217
字节跳动的AML团队开源了一个高性能的transformer实现,称为ByteTransformer。这个实现在BERT transformer的基础上通过一系列优化手段实现了高性能的表现。相比其他的transformer实现,ByteTransformer在处理变长文本输入时具有明显的优势,并且在实验中平均加速可达50%以上。它适用于加速自然语言处理任务,提高模型训练与推理的效率。此外,ByteTransformer的优化手段和性能表现对于其他研究者来说也具有重要意义,为他们提供了一种高效的transformer实现方式。你可以在字节跳动AML团队的GitHub上找到ByteTransformer的标准BERT实现,同时他们还支持了其他变种的transformer,如Deberta、Roformer和T5等。[1][2][3]
阅读全文