吴恩达L1W1作业2
时间: 2023-10-13 22:58:10 浏览: 110
吴恩达作业2
吴恩达的L1W1作业2是关于反向传播和正则化的。在这个作业中,他提供了一个反向传播的实现示例,其中使用了六个方程式来构建向量化实现。这个实现可以帮助我们理解反向传播在深度学习中的应用。\[1\]
此外,作业中还介绍了正则化的概念。正则化是为了减小模型的过拟合而引入的一种技术。在损失函数中增加L1或L2正则项,可以通过调节参数α来控制损失函数和正则项的权重。\[2\]
除此之外,作业还包括了特征映射的示例代码。特征映射是将原始特征转化为更高维度的特征的过程。在示例代码中,通过对两个特征进行最多power次特征映射,将原始的二维特征转化为28维特征。\[3\]
总结来说,吴恩达的L1W1作业2主要涉及反向传播、正则化和特征映射的概念和实现。这些内容对于深度学习的理解和应用都非常重要。
#### 引用[.reference_title]
- *1* [吴恩达深度学习L1W3](https://blog.csdn.net/weixin_47798560/article/details/117395790)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* *3* [2.吴恩达机器学习课程-作业2-逻辑回归](https://blog.csdn.net/wujing1_1/article/details/123070995)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文