论文首页哲学论文经济论文法学论文教育论文文学论文历史论文理学论文工学论文医学论文管理论文艺术论文 |
外文资料译文
使用误差中心基准最优化方式的支持向量机的
快速训练
L. Meng,Q. H. Wu。
电机工程和电子学学院,利物浦大学,利物浦, L69 3GJ 英国
摘要: 这篇文章为支持向量机 (SVM) 训练提出一个新算法,这个算法是基于由现在的机器引起的误差中心束来训练一部机器的。从各种不同的训练组合的实验中展现出新的运算法则刻度的计算时间与训练组合大小几乎成线性关系,因此与二次规划标准(QP)技术相比可被提供于更大的训练组合。
keywords: 支持矢量机器, 二次规画, 模式分类, 机器了解。
1 引言
在统计学理论中基于最近的进展,支持向量机 (SVMs) 组成一个勇于式样分类的学习系统的新团体。训练一个支持向量机相当于解决一个有着密集矩阵的二次规划的问题。二次规划标准的解决需要这个矩阵的所有储存而且他们的效率在于他们的稀疏程度,他向有着大的训练组合设定的支持向量机训练提出申请。
被 Vapnik 和他的队被提倡的支持向量机, 是一新的模式分类和非线性回归技术.(参看【1】,【2】,和【3】)
由于线性分离的问题,一个支持向量机是一个从有最大值的一组反面样本中分离出一组正面样本的超平面。虽然简单直观, 但是这个最大值的观点实际上开拓了在统计学理论中的结构风险最小化(SRM)原则【4】. 因此,所了解的机器不仅有最小的经验风险还有好的推广的能力。
对于非线性可分离的问题,在分类超平面被建立之前输入一个非线性映射 ,而这个分类超平面将训练样本从输入空间传送到比较高维的特征空间。分类超平面是建立在特征空间的。他在输入空间产生一个非线性决定边界。这个决定边界是由在特征空间的处于分类超平面的映射点组成的。非线性映射运用模式可分离定理通过【5】被一致运用.一个复杂的存在于一个高维非线性空间的模式分类问题比在一个低维空间更有可能是线性分离的。
(科教论文网 Lw.nsEAc.com编辑整理)
并且OP1的二重形式如下:
其中定义为在特征空间中的两个向量的内积并被称为核函数。核函数的使用允许一个支持向量机,没有以前明确的特征空间的描述,他的运用限制了在特征空间的分类超平面和在那个空间的分类向量这样的详细描述特征向量的计算负担没有增加。
OP2本质上是一个二次规划问题因为他有下面的形式:
其中矩阵Q是二次型。对于支持向量机的训练,他被定义为
由【6】和【7】得Karush―Kuhn―Tucker(KKT)条件是对一组变量达到最优得最优化问题得充分必要条件。对于问题OP1运用(KKT)条件,我们知道最优解决必须要满足
和
包含
方程式(9)以及方程式(8)和(10)显示出只有那些在间隙边界上的而不是那些处在变化的样本是符合要求的 。方程(8)表明对于符合等于零的所有样本必须要被正确的分类并且放在间隙以外。方程(10)表明具有符合的间隙误差要等于上面的受约束的C。此外,方程(7)显示非零的松弛变量只有当时存在而且所有的间隙误差都要受到惩罚。
3 误差中心基准最优化
一个二次规划问题的大小取决于二次型Q。在支持向量机训练中,矩阵Q的大小是,其中表示训练数据点的个数。如所描述的,有一个为明确存储Q的标准解决技术的必要条件,但是在支持向量机训练中禁止运用标准二次规划去计算有大量数据组的支持向量机的训练。
(转载自http://zw.nseac.coM科教作文网)