大发红黑大战

您的位置 > 大发红黑大战 > CDA专访 > 机器学习常见算法的优缺点之SVM和线性回归

机器学习常见算法的优缺点之SVM和线性回归

来源:CDA原创 | 2019-04-03 | 发布:







在之前的文章中我们给大家介绍了很多关于机器学习的算法知识,通过这些知识我们不难发现每个算法都是有很多功能的,这些功能能够更好地帮助大家理解机器学习的相关知识,在这篇文章中我们给大家介绍一下关于SVM和线性回归的优缺点。





首先我们给大家介绍一下SVM支持向量机。其实支持向量机是一个十分经典的算法,高准确率,为避免过拟合提供了很好的理论保证,而且就算数据在原特征空间线性不可分,只要给个合适的核函数,它就能运行得很好。在超高维的文本分类问题中特别受欢迎。可惜内存消耗大,难以解释,运行和调参也有些烦人,而随机森林却刚好避开了这些缺点,比较实用。





那么支持向量机的优点是什么呢?其是支持向量机的优点就是可以解决高维问题,即大型特征空间、解决小样本下机器学习问题、能够处理非线性特征的相互作用、无局部极小值问、无需依赖整个数据、泛化能力比较强。当然缺点也有很多,具体就是当观测样本很多时,效率并不是很高、对非线性问题没有通用解决方案,有时候很难找到一个合适的核函数、对于核函数的高维映射解释力不强,尤其是径向基函数、常规SVM只支持二分类、对缺失数据敏感。





在支持向量机中用一个核的选择,那么对于核的选择技巧是什么呢?第一,如果样本数量小于特征数,那么就没必要选择非线性核,简单的使用线性核就可以了。第二,如果样本数量大于特征数目,这时可以使用非线性核,将样本映射到更高维度,一般可以得到更好的结果。第三,如果样本数目和特征数目相等,该情况可以使用非线性核,原理和第二种一样。





而SVM应用领域是具体就是文本分类、图像识别。





下面我们给大家介绍一下线性回归的相关知识,其实线性回归是用于回归的,它不像Logistic回归那样用于分类,其基本思想是用梯度下降法对最小二乘法形式的误差函数进行优化,当然也可以用normal equation直接求得参数的解。那么线性回归的优点是什么呢?实现简单,计算简单就是线性回归的优点,而不能拟合非线性数据就是线性回归的缺点。





在这篇文章中我们给大家介绍了关于线性回归和而支持向量机的相关知识,相信大家看了这篇文章以后已经知道了其中的优缺点,希望能够对大家机器学习有所帮助,也祝愿大家学有所成。

完 谢谢观看

本文已经过优化显示,查看原文请点击以下链接:

看图学经济more

院校点评

  大发红黑大战官网  论坛法律顾问:王进律师   大发红黑大战 版权所有
联系QQ:2881989700  邮箱:service@pinggu.org
合作咨询电话:(010)62719935 广告合作电话:13661292478(刘老师)

投诉电话:(010)68466864 不良信息处理电话:(010)68466864