transformer英德翻译
时间: 2023-08-21 22:07:08 浏览: 61
Transformer是一种采用自注意力机制的序列到序列模型,它在翻译任务中取得了令人满意的性能。根据引用,Transformer模型在2014年的WMT英德语翻译任务中表现出色,甚至优于之前的所有模型。它的训练速度比基于循环层或卷积层的架构要快得多。根据引用,Transformer完全依赖于注意力机制来绘制输入和输出之间的全局依赖关系,这使得更多的并行计算成为可能。在8个P100 GPU上训练12个小时后,Transformer可以达到翻译质量的新水平。总的来说,Transformer在英德翻译任务中表现出色,并且具有快速的训练速度。<em>1</em><em>2</em><em>3</em>
#### 引用[.reference_title]
- *1* [原创 | 一文读懂Transformer](https://blog.csdn.net/tMb8Z9Vdm66wH68VX1/article/details/125700881)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}} ] [.reference_item]
- *2* *3* [Transformer翻译](https://blog.csdn.net/qq_39223444/article/details/121337530)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}} ] [.reference_item]
[ .reference_list ]