收藏 分享(赏)

支持向量机(三)核函数.docx

上传人:weiwoduzun 文档编号:1801711 上传时间:2018-08-24 格式:DOCX 页数:8 大小:136.20KB
下载 相关 举报
支持向量机(三)核函数.docx_第1页
第1页 / 共8页
支持向量机(三)核函数.docx_第2页
第2页 / 共8页
支持向量机(三)核函数.docx_第3页
第3页 / 共8页
支持向量机(三)核函数.docx_第4页
第4页 / 共8页
支持向量机(三)核函数.docx_第5页
第5页 / 共8页
点击查看更多>>
资源描述

1、支持向量机(三)核函数7 核函数(Kernels)考虑我们最初在“线性回归”中提出的问题,特征是房子的面积 x,这里的 x 是实数,结果 y 是房子的价格。假设我们从样本点的分布中看到x 和 y 符合 3 次曲线,那么我们希望使用 x 的三次多项式来逼近这些样本点。那么首先需要将特征 x 扩展到三维 ,然后寻找特征和结果之间的模型。我们将这种特征变换称作特征映射(feature mapping)。映射函数称作 ,在这个例子中我们希望将得到的特征映射后的特征应用于 SVM 分类,而不是最初的特征。这样,我们需要将前面 公式中的内积从 ,映射到 。至于为什么需要映射后的特征而不是最初的特征来参与计

2、算,上面提到的(为了更好地拟合)是其中一个原因,另外的一个重要原因是样例可能存在线性不可分的情况,而将特征映射到高维空间后,往往就可分了。(在数据挖掘导论Pang-Ning Tan 等人著的支持向量机那一章有个很好的例子说明)将核函数形式化定义,如果原始特征内积是 ,映射后为,那么定义核函数(Kernel )为到这里,我们可以得出结论,如果要实现该节开头的效果,只需先计算 ,然后计算 即可,然而这种计算方式是非常低效的。比如最初的特征是 n 维的,我们将其映射到 维,然后再计算,这样需要 的时间。那么我们能不能想办法减少计算时间呢?先看一个例子,假设 x 和 z 都是 n 维的,展开后,得这个

3、时候发现我们可以只计算原始特征 x 和 z 内积的平方(时间复杂度是 O(n)),就等价与计算映射后特征的内积。也就是说我们不需要花 时间了。现在看一下映射函数(n=3 时),根据上面的公式,得到也就是说核函数 只能在选择这样的 作为映射函数时才能够等价于映射后特征的内积。再看一个核函数对应的映射函数(n=3 时)是更一般地,核函数 对应的映射后特征维度为 。(求解方法参见http:/ IR 中的余弦相似度,如果 x 和 z 向量夹角越小,那么核函数值越大,反之,越小。因此,核函数值是和 的相似度。再看另外一个核函数这时,如果 x 和 z 很相近( ),那么核函数值为 1,如果 x和 z 相差

4、很大( ),那么核函数值约等于 0。由于这个函数类似于高斯分布,因此称为高斯核函数,也叫做径向基函数(Radial Basis Function 简称 RBF)。它能够把原始特征映射到无穷维。既然高斯核函数能够比较 x 和 z 的相似度,并映射到 0 到 1,回想logistic 回归, sigmoid 函数可以,因此还有 sigmoid 核函数等等。下面有张图说明在低维线性不可分时,映射到高维后就可分了,使用高斯核函数。来自 Eric Xing 的 slides注意,使用核函数后,怎么分类新来的样本呢?线性的时候我们使用SVM 学习出 w 和 b,新来样本 x 的话,我们使用 来判断,如果值

5、大于等于 1,那么是正类,小于等于是负类。在两者之间,认为无法确定。如果使用了核函数后, 就变成了 ,是否先要找到 ,然后再预测?答案肯定不是了,找 很麻烦,回想我们之前说过的只需将 替换成 ,然后值的判断同上。8 核函数有效性判定问题:给定一个函数 K,我们能否使用 K 来替代计算 ,也就说,是否能够找出一个 ,使得对于所有的 x 和 z,都有?比如给出了 ,是否能够认为 K 是一个有效的核函数。下面来解决这个问题,给定 m 个训练样本 ,每一个对应一个特征向量。那么,我们可以将任意两个 和 带入 K 中,计算得到 。I 可以从 1 到 m,j 可以从 1 到 m,这样可以计算出 m*m 的

6、核函数矩阵(Kernel Matrix)。为了方便,我们将核函数矩阵和 都使用 K 来表示。如果假设 K 是有效地核函数,那么根据核函数定义可见,矩阵 K 应该是个对称阵。让我们得出一个更强的结论,首先使用符号 来表示映射函数 的第 k 维属性值。那么对于任意向量z,得最后一步和前面计算 时类似。从这个公式我们可以看出,如果 K 是个有效的核函数(即 和 等价),那么,在训练集上得到的核函数矩阵 K 应该是半正定的( )这样我们得到一个核函数的必要条件:K 是有效的核函数 = 核函数矩阵 K 是对称半正定的。可幸的是,这个条件也是充分的,由 Mercer 定理来表达。Mercer 定理:如果函

7、数 K 是 上的映射(也就是从两个 n 维向量映射到实数域)。那么如果 K是一个有效核函数(也称为 Mercer 核函数),那么当且仅当对于训练样例 ,其相应的核函数矩阵是对称半正定的。Mercer 定理表明为了证明 K 是有效的核函数,那么我们不用去寻找 ,而只需要在训练集上求出各个 ,然后判断矩阵 K 是否是半正定(使用左上角主子式大于等于零等方法)即可。许多其他的教科书在 Mercer 定理证明过程中使用了 范数和再生希尔伯特空间等概念,但在特征是 n 维的情况下,这里给出的证明是等价的。核函数不仅仅用在 SVM 上,但凡在一个模型后算法中出现了 ,我们都可以常使用 去替换,这可能能够很好地改善我们的算法。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 中等教育 > 小学课件

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报