optimizers
时间: 2023-08-21 17:06:58 浏览: 78
Optimizers v2.2.0
5星 · 资源好评率100%
优化器(optimizer)是机器学习中用于最小化损失函数的算法。在深度学习中,常见的优化器是对梯度下降算法的优化。常用的优化器包括GradientDescentOptimizer、AdagradOptimizer、MomentumOptimizer、AdamOptimizer等\[1\]。在TensorFlow中,可以通过设置优化器的参数来自定义优化器\[2\]。在PyTorch中,可以使用AdamW优化器来进行模型参数的优化\[3\]。不同的优化器在不同的曲面、鞍点和等高线上的表现也有所差异\[3.1\]。
#### 引用[.reference_title]
- *1* [【TensorFlow 入门】2、优化器函数 Optimizer](https://blog.csdn.net/jiaoyangwm/article/details/79242237)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* [新手入门深度学习 | 3-6:优化器optimizers](https://blog.csdn.net/qq_38251616/article/details/124097632)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
- *3* [【机器学习】详解 Optimizers](https://blog.csdn.net/qq_39478403/article/details/119061124)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文