logo资料库

Online Learning 算法简介.doc

第1页 / 共3页
第2页 / 共3页
第3页 / 共3页
资料共3页,全文预览结束
在线学习(Online Learning)算法 原题目叫做 The perception and large margin classifiers,其实探讨的是在线学习。 这里将题目换了换。以前讨论的都是批量学习(batch learning),就是给了一堆样例后,在 样例上学习出假设函数 h。而在线学习就是要根据新来的样例,边学习,边给出结果。 假设样例按照到来的先后顺序依次定义为 。X 为样 本特征,y 为类别标签。我们的任务是到来一个样例 x,给出其类别结果 y 的预测值,之后我们 会看到 y 的真实值,然后根据真实值来重新调整模型参数,整个过程是重复迭代的过程,直到 所有的样例完成。这么看来,我们也可以将原来用于批量学习的样例拿来作为在线学习的样例。 在在线学习中我们主要关注在整个预测过程中预测错误的样例数。 拿二值分类来讲,我们用 y=1 表示正例,y=-1 表示负例。回想在讨论支持向量机中提到 的感知算法(perception algorithm)。我们的假设函数为 其中 x 是 n 维特征向量, 是 n+1 维参数权重。函数 g 用来将 计算结果映射到-1 和 1 上。具体公式如下: 这个也是 logistic 回归中 g 的简化形式。 现在我们提出一个在线学习算法如下: 新来一个样例 ,我们先用从之前样例学习到的 来得到样例的预测值 y,如果 (即预测正确),那么不改变 ,反之 也就是说,如果对于预测错误的样例, 进行调整时只需加上(实际上为正例)或者减去(实 际负例)样本特征 x 值即可。 初始值为向量 0。这里我们关心的是 的符号,而不是它的具 体值。调整方法非常简单。然而这个简单的调整方法还是很有效的,它的错误率不仅是有上界的, 而且这个上界不依赖于样例数和特征维度。 下面定理阐述了错误率上界: 定理(Block and Novikoff):
给定按照顺序到来的 样例。假设对于所有的样例 ,也就是说特征向量长度有界为D。更进一步,假设存在一个单位长度向量 且 。也就是说对于 y=1 的正例, ,反例 ,u 能够 有 的间隔将正例和反例分开。那么感知算法的预测的错误样例数不超过 。 根据前面对 SVM 的理解,这个定理就可以阐述为:如果训练样本线性可分,并且几何间距 至少是 ,样例样本特征向量最长为 D,那么感知算法错误数不会超过 。这个定理是 62 年 提出的,63 年 Vapnik 提出 SVM,可见提出也不是偶然的,感知算法也许是当时的热门。 下面主要讨论这个定理的证明: 感知算法只在样例预测错误时进行更新,定义 是第 k 次预测错误时使用的样本特征权 重, 初始化为 0 向量。假设第 k 次预测错误发生在样例 上,利用 计算 值时得到的结果不正确(也就是说 ,调换 x 和 顺序主要是为了书写方便)。 也就是说下面的公式成立: 根据感知算法的更新方法,我们有 。这时候,两边都乘以 u 得到 两个向量做内积的时候,放在左边还是右边无所谓,转置符号标注正确即可。 这个式子是个递推公式,就像等差数列一样 f(n+1)=f(n)+d。由此我们可得 因为初始 为 0。 下面我们利用前面推导出的 和 得到
也就是说 的长度平方不会超过 与 D 的平方和。 又是一个等差不等式,得到: 两边开根号得: 其中第二步可能有点迷惑,我们细想 u 是单位向量的话, 因此上面的不等式成立,最后得到: 也就是预测错误的数目不会超过样本特征向量 x 的最长长度与几何间隔的平方。实际上整 个调整过程中 就是 x 的线性组合。 整个感知算法应该是在线学习中最简单的一种了,目前发现 online learning 挺有用的, 以后多多学习。
分享到:
收藏