机器学习面试指南:从监督学习到正则化

需积分: 50 36 下载量 103 浏览量 更新于2024-07-15 2 收藏 1.03MB PDF 举报
"这份资料包含了机器学习面试中常见的问题,主要涉及有监督学习与无监督学习的区别、正则化及其目的、过拟合的原因与解决方法,以及线性分类器与非线性分类器的差异。" 有监督学习与无监督学习是机器学习的两大基本类型。有监督学习是基于标记的训练数据进行模型训练,目的是为了能够对未知数据进行准确分类或预测,如逻辑回归(LR)、支持向量机(SVM)、反向传播(BP)、随机森林(RF)和梯度提升决策树(GBDT)等。无监督学习则是在未标记数据上进行,目的是发现数据内部的结构或模式,如K-Means聚类和深度学习(DL)。 正则化是一种解决过拟合的技术,它通过在损失函数中加入模型参数的范数作为惩罚项,如L1正则和L2正则。正则化有助于保持模型的简洁性,防止模型过于复杂而过度拟合训练数据。过拟合发生时,模型在训练数据上的表现很好,但在新数据上的泛化能力差。其主要原因包括样本不足、抽样方法不当、噪声数据过多以及模型复杂度过高。解决过拟合的方法包括增加样本数量、降维、采用验证集、改进抽样策略、清理噪声数据、控制模型复杂度、利用正则化、早期停止训练、决策树剪枝等。 线性分类器,如逻辑回归、朴素贝叶斯、单层感知机和线性回归,它们的分类决策边界是参数的线性组合。这类模型计算效率高,易于实现,但可能无法很好地适应非线性关系。非线性分类器,如决策树、随机森林、梯度提升决策树和多层感知机,它们可以处理非线性可分问题,虽然编程相对复杂,但具备更强的拟合能力。对于支持向量机(SVM),其线性核对应线性分类器,而高斯核则能处理非线性问题。 在LR模型中,sigmoid函数(Sigmoid函数,也称为logistic函数)常用于将连续的预测值转化为概率,这是因为sigmoid函数的输出范围在0到1之间,符合概率的定义,使得模型能够输出预测的概率。此外,LR模型还有解析解,训练效率较高,适合处理大规模数据。
2018-03-07 上传
BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 46 批量梯度下降 47 随机梯度下降 48 具体步骤: 50 引言 72 1. 深度有监督学习在计算机视觉领域的进展 73 1.1 图像分类(Image Classification) 73 1.2 图像检测(Image Dection) 73 1.3 图像分割(Semantic Segmentation) 74 1.4 图像标注–看图说话(Image Captioning) 75 1.5 图像生成–文字转图像(Image Generator) 76 2.强化学习(Reinforcement Learning) 77 3深度无监督学习(Deep Unsupervised Learning)–预测学习 78 3.1条件生成对抗网络(Conditional Generative Adversarial Nets,CGAN) 79 3.2 视频预测 82 4 总结 84 5 参考文献 84 一、从单层网络谈起 96 二、经典的RNN结构(N vs N) 97 三、N VS 1 100 四、1 VS N 100 五、N vs M 102 Recurrent Neural Networks 105 长期依赖(Long-Term Dependencies)问题 106 LSTM 网络 106 LSTM 的核心思想 107 逐步理解 LSTM 108 LSTM 的变体 109 结论 110 196. L1与L2范数。机器学习 ML基础 易 163 218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习 DL基础 中 178 @李振华,https://www.zhihu.com/question/68109802/answer/262143638 179 219. 请比较下EM算法、HMM、CRF。机器学习 ML模型 中 179 223. Boosting和Bagging 181 224. 逻辑回归相关问题 182 225. 用贝叶斯机率说明Dropout的原理 183 227. 什么是共线性, 跟过拟合有什么关联? 184 共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。 184 共线性会造成冗余,导致过拟合。 184 解决方法:排除变量的相关性/加入权重正则。 184 勘误记 216 后记 219