logo资料库

SVM与LS-SVM的区别.doc

第1页 / 共1页
资料共1页,全文预览结束
SVM与LS-SVM的区别
SVM 与 LS-SVM 的区别 SVM 标准算法在应用中存在着超平面参数选择,以及 QP 问题求解中矩阵规模受训练样本数目的影响很大,导致求 解规模过大的问题。 Suykens 等人提出的最小二乘支持向量机(Least Squares Support Vector Machines,LS-SVM)从机器学习损失函 数着手,在其优化问题的目标函数中使用二范数,并利用等式约束条件代替 SVM 标准算法中的不等式约束条件,使得 LS-SVM 方法的优化问题的求解变为通过 Kuhn-Tucker 条件得到的一组线性方程组的求解。 SVM 与 LS-SVM 的比较 优化问题的构造 从前述对 SVM 与 LS-SVM 方法在样本分类与回归估计的分析中可以看出,两种方法的优化问题的构造上,目标函 数分别采用了误差因子的一次项与二次项,同时约束条件分别采用了不等式约束与等式约束形式。这两方面的差别也导 致了两种方法在求解过程中的差异。 优化问题的求解 SVM 求解 QP 问题中,变量维数等于训练样本的个数,从而使其中矩阵元素的个数是训练样本个数的平方。当数据 规模达到一定程度时,SVM 算法的求解规模就会使一些传统办法难以适应。针对 SVM 的求解困难的问题,也产生了一 些相应的解决办法,如选块算法和 SMO 算法等。这些算法在一定程度上简化了 SVM 优化问题的求解,促进了 SVM 的 应用发展。而 LS-SVM 方法通过求解线性方程组实现最终的决策函数,在一定程度上降低了求解难度,提高了求解速度, 使之更能适合于求解大规模问题,更能适应于一般的实际应用。虽然并不一定能获得全局最优解,但是 仍可以获得较高精度的识别率。 解的稀疏性 SVM 标准算法中,需要求解复杂的 QP 问题,可以获得理论上的全局最优解,并且,大部分的 Lagrange 乘子均为 零,使得最终的决策函数只依赖于少部分样本数据,即支持向量。使 SVM 方法中解显示出稀疏性的特点。在 LS-SVM 方法中,由于其优化问题的目标函数使用了误差平方项以及等式约束条件,将 SVM 的 QP 问题转化为一组线性方程组 求解,使得 Lagrange 乘子与误差项成比例关系,直接的后果就使得最终决策函数与所有样本都相关,也就失去了 SVM 方法中解的稀疏性的特点。但是 LS-SVM 方法通过对最终求解得到的 Lagrange 乘子进行排序,并使用“修剪”算法,仍 然可以在一定程度上实现解的稀疏性的
分享到:
收藏