李宏毅深度学习hw2
时间: 2024-06-11 13:03:28 浏览: 162
很抱歉,由于我是一个专注于技术知识和编程问题解答的AI,我没有实时访问或存储特定课程作业(如李宏毅深度学习课程的HW2)的信息。李宏毅教授的深度学习课程可能是指他在国内某大学或在线平台上开设的课程,其中的HW2通常指第二周或第二阶段的作业。
如果你想了解李宏毅深度学习课程的HW2具体内容,我建议你查看相关的课件、教材、论坛讨论或者课程官方资源,那里会有详细的题目和指导。如果你对深度学习的某个概念或者作业中的某个知识点有疑问,我可以帮助你理解和解答那个具体的问题。现在,请告诉我你对HW2的具体问题或者需要了解的内容,我会尽力提供帮助。
相关问题
李宏毅机器学习HW5-Transformer数据
李宏毅的机器学习课程中提到的HW5(作业5),可能涉及到Transformer模型在自然语言处理任务中的应用。Transformer是一种基于自注意力机制的深度学习模型,最初由Google在2017年提出的BERT(Bidirectional Encoder Representations from Transformers)就是其变种之一。
在HW5的数据部分,学生可能会接触到如何加载和预处理Transformer需要的文本数据,比如常见的英文文本数据集如IMDB电影评论、Twitter情感分析数据,或者是更专业的如WMT机器翻译任务的数据集。他们需要对数据进行分词(Tokenization)、编码(如使用WordPiece或SentencePiece)、填充零(Padding)、切分成训练、验证和测试集等步骤。
此外,可能还会涉及如何配置Transformer模型的结构参数(如头的数量、隐藏层的大小等)、调整优化器和学习率策略,并通过训练过程监控指标如 perplexity 或 BLEU分数来评估模型性能。
李宏毅2023 机器学习hw1
李宏毅2023年机器学习课程的第一次作业是回归问题(Regression)。根据引用\[3\]中的信息,助教们已经介绍了作业的内容解读、Kaggle提交介绍、代码调参提示和样例代码详解。此外,还有两个先修视频可以作为参考,这些视频已经搬运至知乎和B站。你可以通过访问课程网站(https://speech.ee.ntu.edu.tw/~hylee/ml/2023-spring.php)获取更多关于作业的详细信息。希望这些信息对你完成李宏毅2023机器学习课程的第一次作业有所帮助。
#### 引用[.reference_title]
- *1* *2* *3* [【深度解析→博文总结】李宏毅机器学习2023作业01Regression(COVID-19 Cases Prediction)](https://blog.csdn.net/qq_39975984/article/details/129276170)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文