pkuseg使用哪些Transformer Encoder层来混合分词模型
时间: 2023-06-26 14:09:06 浏览: 180
层归一化:Transformer模型的稳定器
pkuseg使用了三种不同的Transformer Encoder层来混合分词模型,分别是:
1. 基于Lattice LSTM的模型,使用了3层Transformer Encoder。
2. 基于Char CNN的模型,使用了1层Transformer Encoder。
3. 基于BiLSTM的模型,使用了1层Transformer Encoder。
这三种模型分别使用不同的特征提取方式来进行分词,通过使用Transformer Encoder层来混合这些模型,可以得到更好的分词效果。在pkuseg中,使用了Transformer Encoder的Multi-Head Attention机制来融合不同模型的特征信息,从而提高分词的准确率和鲁棒性。
阅读全文