深度学习与机器学习面试精华:Tensorflow、距离度量与CNN解析

需积分: 10 6 下载量 85 浏览量 更新于2024-07-18 收藏 47KB DOCX 举报
"机器学习相关面试题,包括Tensorflow计算图解释、距离度量对比、CNN卷积核结构以及LR和SVM的关系与差异" 在机器学习面试中,深入理解算法和相关工具至关重要。让我们逐一探讨这些知识点。 1. Tensorflow的计算图:Tensorflow是谷歌开发的开源深度学习库,它的核心概念是计算图。这个计算图是由节点(Nodes)和边(Edges)构成的有向图,其中节点代表操作(Operations),边则代表数据流(Tensors)。每个节点执行一个特定的数学运算,而边则表示数据在节点间流动。在定义计算图时,我们构建了一个静态的描述,而在运行时,Tensorflow会根据这个描述执行实际的计算。这种分离定义和执行的方式允许Tensorflow进行高效的并行计算和优化。 2. 距离度量的比较:在机器学习中,距离度量用于衡量样本之间的相似度。欧氏距离是最直观的距离计算方式,适用于各个属性具有相同权重的情况。而曼哈顿距离(L1距离)忽略了维度之间的相对大小,更适合于各维度独立且同等重要的场景。两者在应用时需根据数据特性选择,例如在处理离群值或者各特征尺度不一时,曼哈顿距离可能更为合适。 3. CNN的卷积核:卷积神经网络(CNN)中的卷积核通常是3维结构,包括宽度、高度和深度三个维度。宽度和高度决定了滤波器覆盖输入图像的区域,而深度对应于输入特征图的通道数。卷积操作不仅是对每个像素的二维操作,还包括了跨通道的卷积,使得网络能捕获不同特征。1x1卷积虽然在面积上为1,但仍有深度,它常用于通道降维或特征融合。 4. LR与SVM的联系与区别:逻辑回归(LR)和支持向量机(SVM)都是常见的分类算法。它们都能处理线性可分的二分类问题,并可通过添加正则化项控制模型复杂度。然而,SVM的核心思想是找到最大间隔的决策边界,即寻找最优超平面,这使得SVM在处理非线性问题时通过核函数有出色表现。相比之下,LR的目标是最大化对数似然,通过概率模型预测类别。SVM通常在小样本或高维数据集上表现更好,而LR则在大规模数据集和速度上具有一定优势。 这些面试题涵盖的主题广泛,反映了机器学习工程师需要具备的扎实理论基础和实践经验。理解和掌握这些知识点不仅能帮助应对面试,也能在实际项目中提升问题解决能力。
2018-03-07 上传
BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 46 批量梯度下降 47 随机梯度下降 48 具体步骤: 50 引言 72 1. 深度有监督学习在计算机视觉领域的进展 73 1.1 图像分类(Image Classification) 73 1.2 图像检测(Image Dection) 73 1.3 图像分割(Semantic Segmentation) 74 1.4 图像标注–看图说话(Image Captioning) 75 1.5 图像生成–文字转图像(Image Generator) 76 2.强化学习(Reinforcement Learning) 77 3深度无监督学习(Deep Unsupervised Learning)–预测学习 78 3.1条件生成对抗网络(Conditional Generative Adversarial Nets,CGAN) 79 3.2 视频预测 82 4 总结 84 5 参考文献 84 一、从单层网络谈起 96 二、经典的RNN结构(N vs N) 97 三、N VS 1 100 四、1 VS N 100 五、N vs M 102 Recurrent Neural Networks 105 长期依赖(Long-Term Dependencies)问题 106 LSTM 网络 106 LSTM 的核心思想 107 逐步理解 LSTM 108 LSTM 的变体 109 结论 110 196. L1与L2范数。机器学习 ML基础 易 163 218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习 DL基础 中 178 @李振华,https://www.zhihu.com/question/68109802/answer/262143638 179 219. 请比较下EM算法、HMM、CRF。机器学习 ML模型 中 179 223. Boosting和Bagging 181 224. 逻辑回归相关问题 182 225. 用贝叶斯机率说明Dropout的原理 183 227. 什么是共线性, 跟过拟合有什么关联? 184 共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。 184 共线性会造成冗余,导致过拟合。 184 解决方法:排除变量的相关性/加入权重正则。 184 勘误记 216 后记 219