transformer习题
时间: 2023-08-28 12:08:23 浏览: 276
关于Transformer的练习题,其中正确的描述有:
1. 在训练和预测过程中,解码器部分只需进行一次前向传播。
2. Transformer内部的注意力模块均为自注意力模块。
3. 解码器部分在预测过程中需要使用Attention Mask。
同时,作者在Transformer论文中指出了"Attention is All You Need"的重要性。 这句话强调了Transformer模型中注意力机制的关键作用。
值得注意的是,完成Transformer作业后,可以去参加未评分的实验,将Transformer模型应用于实际用例,比如命名实体识别(NER)和问答(QA)。祝贺您完成了深度学习专项课程!<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [TASK04-注意力机制-机器翻译-Transformer](https://download.csdn.net/download/weixin_38744375/14035581)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [吴恩达深度学习课后习题第五课第四周编程作业1:Transformers Architecture with TensorFlow](https://blog.csdn.net/weixin_71479720/article/details/125859346)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文