aoa attentionn
时间: 2023-09-02 11:12:49 浏览: 91
AoA(Attention on Attention)是一种扩展传统注意力机制的模块,用于解决注意力中的无关问题。AoA模块通过使用注意力门将注意力应用于信息向量,从而添加另一个注意力并获取关注信息。它被应用于图像字幕生成中,通过在编码器和解码器中应用AoA,提升了性能,达到了新的最先进水平。在MS COCO数据集上进行的广泛实验表明,我们提出的AoA模块和AoANet具有优越性和普适性。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [用于图像描述的注意上的注意模型《Attention on Attention for Image Captioning》](https://blog.csdn.net/xiasli123/article/details/103112133)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文