这些模型都是什么时候提出的
时间: 2023-09-03 13:11:13 浏览: 137
这些模型的提出时间不尽相同,以下是它们的简要介绍及提出时间:
1. CN-SENet:这是一种使用双向LSTM和注意力机制的中文三元组抽取模型,由李卓桓等人于2018年提出。
2. Bert-BiLSTM-Attention:这是一种基于Bert预训练模型、结合双向LSTM和注意力机制的中文三元组抽取模型,由谭松波等人于2019年提出。
3. TripletNet:这是一种使用卷积神经网络和三元组损失函数来进行中文三元组抽取的模型,由周宏等人于2019年提出。
4. TripletAttention:这是一种基于注意力机制和三元组损失函数的中文三元组抽取模型,由李志强等人于2019年提出。
这些模型的提出时间都比较近,都是在2018年或2019年提出的,显示出中文三元组识别在近年来得到了越来越多的关注。
相关问题
transformer模型是什么时候提出的
Transformer模型是在2017年由Google的研究团队提出的,发表在了论文《Attention Is All You Need》中。该模型基于自注意力机制,旨在解决传统序列模型中存在的长距离依赖问题。Transformer模型的提出对于自然语言处理领域的发展产生了重大影响,成为了许多自然语言处理任务中的基准模型。
informer模型什么时候提出的
Informer模型是在2020年提出的。它是一种用于时间序列预测的模型,具有自适应的全局性和局部性注意力机制,能够有效地捕捉输入序列中的长期和短期依赖关系。Informer模型的提出,为时间序列预测领域带来了新的思路和方法,取得了很好的预测效果。
在Informer模型提出之前,传统的时间序列预测模型通常只能局限于捕捉相对短期的依赖关系,难以处理长期和短期交叉的复杂时间序列数据。而Informer模型通过引入全局性和局部性注意力机制,能够自适应地调整对不同时间尺度的关注,从而更好地建模时间序列数据的长期和短期依赖关系。
除此之外,Informer模型还采用了一种不定长的时间序列输入方式,能够自适应地处理不同长度的时间序列数据,使得模型在处理实际数据时更加灵活高效。因此,Informer模型的提出对于时间序列预测领域具有重要的意义,为如何更好地理解和分析时间序列数据提供了新的角度和方法。