self attention和cross attention
时间: 2023-08-24 09:05:44 浏览: 26
Self Attention是一种注意力机制,用于对序列中的每个元素与其他元素之间建立关联。在使用Self Attention进行多车交互建模时,每个车辆结点相当于一个单词,没有位置信息。通过计算每个节点与其他所有节点之间的注意力值,最后提取出属于目标车辆的那一份注意力值作为多车交互中的特征信息。因此,Self Attention也可以被称为全局图注意力。另外,Self Attention也可以将每个车辆的轨迹视为一个句子,用于时序上的信息提取和预测。<em>1</em><em>2</em><em>3</em>
#### 引用[.reference_title]
- *1* *2* [GAT, Self Attention, Cross Attention对比以及在自动驾驶轨迹预测任务中的pytorch应用](https://blog.csdn.net/Cameron_Rin/article/details/123706210)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}} ] [.reference_item]
- *3* [Self -Attention、Multi-Head Attention、Cross-Attention](https://blog.csdn.net/philosophyatmath/article/details/128013258)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}} ] [.reference_item]
[ .reference_list ]
相关推荐


















