大模型前沿的参考文献
时间: 2023-11-30 12:43:00 浏览: 206
以下是一些关于大模型前沿的参考文献:
1. 余凯等,《深度学习:模型、方法与应用》,机械工业出版社,2019年。
2. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI Blog, 1(8), 9.
3. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Polosukhin, I. (2017). Attention is all you need. arXiv preprint arXiv:1706.03762.
4. BERT Research, & Google AI. (n.d.). BERT Pretraining: Coding as Communication. <https://ai.googleblog.com/2018/08/bert-pretraining-coding-communication.html>.
5. Smith, M., Dhariwal, P., Zettlemoyer, L., & Amodei, D. (2020). Scaling to Language Understanding with Transformers. arXiv preprint arXiv:2005.14165.
这些文献涵盖了近年来大模型领域的主要研究成果和进展,可以作为进一步研究和探索的参考。同时,也可以通过查阅最新的学术期刊和会议论文来获取最新的研究成果和进展。
阅读全文