SVM 与 LR的异同
SVM 异同 lr
2023-09-11 14:15:27 时间
LR & SVM 的区别
相同点
- LR和SVM都是分类算法。
- 如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。
- LR和SVM都是监督学习算法。
- LR和SVM都是判别模型。
不同点
- 损失函数不一样
- 支持向量机只考虑局部的边界线附近的点,而逻辑回归考虑全局(远离的点对边界线的确定也起作用)。
- 在解决非线性问题时,支持向量机采用核函数的机制,而LR通常不采用核函数的方法在计算决策面时,SVM算法里只有少数几个代表支持向量的样本参与了计算,也就是只有少数几个样本需要参与核计算(即kernal machine解的系数是稀疏的)。然而,LR算法里,每个样本点都必须参与决策面的计算过程,也就是说,假设我们在LR里也运用核函数的原理,那么每个样本点都必须参与核计算,这带来的计算复杂度是相当高的。所以,在具体应用时,LR很少运用核函数机制。
- 线性SVM依赖数据表达的距离测度,所以需要对数据先做normalization,LR不受其影响。
- SVM的损失函数就自带正则
相关文章
- 一步步教你轻松学支持向量机SVM算法之理论篇1
- 基于scikit-learn的SVM分类器实现例(toy example)
- 【OpenCV-Python】教程:7-5 理解SVM...
- 机器学习(十三):支持向量机(SVM)
- 支持向量机通俗导论(理解SVM的三层境地)
- SVM最通俗的解读
- 【机器学习】SVM面试题:简单介绍一下SVM?支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?
- 【机器学习】解释对偶的概念及SVM中的对偶算法?(面试回答)
- 算法工程师面试题十之支持向量机(SVM)
- 基于SVM-支持向量机解决波士顿房价预测回归问题