全部版块 我的主页
论坛 数据科学与人工智能 人工智能 人工智能论文版
766 0
2018-01-10
摘要:基于核方法的学习算法在机器学习领域占有很重要的地位(如支持向量机Support Vector Machines,简称SVM)。但该方法在处理回归问题时的计算复杂度为数据量的立方级。最小二乘支持向量机(Least Squares Support Vector Machines,简称LS-SVM)在计算复杂性方面对传统的支持向量机作了很大改进,但是它的计算量也达到样本点数目的平方级。在处理海量数据回归问题时.求解LS—SVM占用大量的CPU和内存资源。提出了一种带非齐次多项式核的最小二乘支持向量机算法,由于特征向量中含有常数分量,所以去掉了模型中的偏差因子,简化了LS—SVM的回归模型。新方法特别适合于海量数据回归问题。实验显示新方法的求解速度比传统LS—SVM快很多,同时新方法的准确性却丝毫不亚于LS—SVM。

原文链接:http://www.cqvip.com//QK/91690X/200711/24259769.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群