理解SVM:从Logistic回归到支持向量机
需积分: 10 102 浏览量
更新于2024-09-11
收藏 878KB PDF 举报
"这篇文档是关于支持向量机(SVM)的学习,作者JerryLead通过重新审视logistic回归来引入SVM的概念。"
在机器学习领域,支持向量机(Support Vector Machine,简称SVM)是一种高效且强大的有监督学习算法,尤其在分类和回归任务中表现出色。SVM的基本思想是找到一个最佳的决策边界,使得不同类别之间的间隔最大化,以此提高分类的准确性和泛化能力。
首先,文档回顾了logistic回归,这是SVM的一个基础。Logistic回归通过构建一个将特征线性组合后经过logistic函数映射的模型来实现二分类。函数形式为希尔伯特空间中的假设函数,其中θ是权重向量,x是特征向量,g(z)是logistic函数(也称为sigmoid函数),它将实数值映射到(0,1)之间,表示属于正类的概率。如果ℎ𝜃(x)大于0.5,样本被预测为正类,否则为负类。
在logistic回归中,真正决定类别的是θTx的值。理想的模型是使正类样本的θTx远大于0,负类样本的θTx远小于0。这样,logistic函数的作用主要是将这些值映射到(0,1)区间,便于分类。
当观察logistic回归的图形,可以发现模型试图找到一个分割点(θTx=0的线),使得数据点尽可能远离这条线。重点在于那些靠近分割线的点,因为它们对模型的边界最为敏感。优化的目标不是让所有点都达到最优,而是确保关键点(即靠近分割线的点)远离边界,从而增强模型的鲁棒性。
进入SVM,其核心思想与logistic回归类似,但更加强调最大间隔。SVM寻找一个最优超平面,使得两类样本之间的间隔最大化。这个超平面可以看作是logistic回归中的θTx=0的线。然而,SVM引入了一个新的概念——支持向量,即距离超平面最近的样本点。优化目标不再是所有点,而是支持向量,因为它们决定了超平面的位置和形状。
SVM通过解决一个凸优化问题来找到最优超平面,这通常涉及拉格朗日乘子和核函数。拉格朗日乘子用来平衡间隔最大化和样本正确分类,而核函数则用于将低维特征映射到高维空间,使得原本线性不可分的数据在高维空间中变得可分。
总结起来,SVM通过最大化间隔并关注支持向量来构建分类模型,其优势在于对噪声的容忍度较高,能够处理高维数据,并且在小样本情况下表现良好。而logistic回归则更多地关注所有数据点的整体优化。两者虽然在目标上有相似之处,但SVM在策略和方法上更为灵活和强大。
2021-04-01 上传
2021-08-29 上传
2019-11-17 上传
2023-10-20 上传
2023-09-05 上传
2023-08-19 上传
2023-06-06 上传
2023-12-24 上传
2023-06-28 上传
Maxwell_Deity
- 粉丝: 0
- 资源: 1
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫